Agile Cat — in the cloud

Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう

Posted in .Selected, Data Center Trends, Facebook, Google, Open Compute, Strategy by Agile Cat on August 28, 2013

Forget servers; One day Facebook, Google and other web giants will make their own custom chips
http://wp.me/pwo1E-6xC

By
Stacey Higginbotham
http://gigaom.com/2013/07/06/forget-servers-one-day-facebook-google-and-other-web-giants-will-make-their-own-custom-chips/

_ Gigaom

Summary: Will web giants soon follow in Apple’s footsteps with the iPhone, and design specialty silicon for the servers running their operations? An AMD executive thinks that day is around the corner.

Summary: Web の巨人たちは、すぐにでも Apple における iPhone の足跡をたどり、彼らが運用するサーバーに特化された、シリコン・チップをデザインしていくのだろうか?  ある AMD の幹部は、その日が迫っていると考えている。

ーーーーー

photo: (c) 2013 Pinar Ozger
pinar@pinarozger.com

It has become clear that ARM is invading the data center as chips built using its designs grow more powerful for enterprise computing loads and as the workloads and economics of webscale computing make the ARM architecture more attractive. But using ARM cores also changes the cost of designing a new chip, and frees the non-CPU elements on the chip from being dictated by a specific vendor.

しだいに明らかになってきたことは、ARM はエンタープライズ・コンピューティングにおける負荷とワークロードに対して、チップ構成をパワフルにしていくためのデザインを成長させ、データセンターに侵入しようとしていることだ。そして、Web スケール・コンピューティングの経済が、ARM アーキテクチャをより魅力的にする。さらに言えば、ARM Core の利用は、新しいチップのデザイン・コストを変更し、特定ベンダーにより決定されている、チップ上の non-CPU 要素を解放する。

Both of these trends are driving webscale companies to discuss making custom CPU cores for their specific workloads, and are allowing startups to try to break into the world of interconnect fabrics and memory management that used to be locked to a specific x86 core. Right now big web companies like Google and Facebook are designing and building their own gear but soon they may want to have a few chip designers on hand as well.

これらのトレンドが、Web スケール・カンパニーにおけるワークロードに対応する、カスタム CPU コアを作成しようという議論を推進している。 つまり、x86 コアにロックされてきた、インターコネクト・ファブリックとメモリ・マネージメントの世界への、スタートアップたちによる侵入を許容しようとしているのだ。そして、いま、Google や Facebook といった巨大な Web カンパニーは独自のギアを設計/構築しているが、それほどの時間を待つことなく、チップ・デザイナーも手中に収めたいと考えるだろう。

With ARM custom server chips are cheaper and faster

Facebook’s Open Compute
technologies on a rack.

Andrew Feldman, GM and corporate VP at AMD, explained this idea in a series of conversations with me over the last few weeks in which he estimated that one could build an entirely custom chip using the ARM architecture in about 18 months for about $30 million. He compared this to the three or four-year time frame and $300 million to $400 million in development costs required to build an x86-based server chip.

AMD の GM and Corporate VP である Andrew Feldman は、この数週における私との会話の中で、いくつかの考えを説明してくれた。そのときに、彼は、ARM アーキテクチャを用いる完全なカスタムチップの構築が、約18ヶ月の時間と、$30 million のコストで実現されると推定していた。そして、x86 ベースのサーバーチップを構築するためには、3年~4年のタイムフレームと、$300 million ~ $400 million のコストが必要になるとも比較していた。

He wrote in an email:

This vast change in the cost and time to market opens the door for large CPU consumers (mega data center players) to collaborate with ARM CPU vendors–say by paying part of the cost of development– in return for including custom IP that advantages the Mega Data center owners software/offering. There are conversations underway on this topic with nearly every major megadata center player in the world. The mega data center owners are building warehouse scale computers. It is not surprising that they have ideas on custom IP that would advantage their own software and would like that IP embedded into a CPU — ARM makes this feasible by bringing down the cost and development time of CPU creation.

この、立ち上げまでのコストと時間における大きな変化により、大規模な CPU 消費者(メガ・データセンター)が開発コストの一部を支払うことで、ARM CPU ベンダーとの協業のドアが開かれるだろう。そして、見返りとして、メガ・データセンターの所有者たちは、ソフトウェアと提供物に先進性をもたらす、カスタムな IP を得ていく。ほぼ、すべての、世界のメガ・データセンター・プレーヤーたちが、このトピックに関連して、なんらかのビジネスを進めているはずだ。つまり、メガ・データセンターの所有者は、倉庫のような規模のコンピュータを構築しようとしている。彼らが、自身のソフトウェアにおけるアドバンテージとして、カスタムな IP のアイデアを有し、それの IP を CPU に組み込もうとしていても、さほど驚くべきことではない。  ARM は、CPU 開発におけるコストと時間を抑制することで、それを可能にするのだ。

This is a deeper component to Feldman’s talk at Structure about how the shifts in personal computing habits from PCs to less powerful mobile phones and tablets has changed the infrastructure needs of web companies that do most of the computing in the cloud for these devices.

それは、Structure で Feldman が説明した、奥行きのある構成要素に関するものだ。つまり、PC から、それほどパワフルではないモバイルやタブレットへと向けた、パーソナル・コンピューティングにおける傾向の変化が、それらのデバイスのためのクラウド・コンピューティングを提供する、大半の Web カンパニーのインフラ・ニーズをシフトさせるというものである。

Yet custom chips aren’t limited to improving the computing economics at webscale vendors. Feldman said there is a company using custom-made chips on boards to mine Bitcoins, a rumor I had heard at our Structure event, but couldn’t confirm. I’m not sure if the custom-chips are using ARM cores however.

しかし、カスタムチップにおける経済性の向上は、Web スケール・ベンダーのコンピューティングに限定されるものではない。Feldman は、Bitcoins をマイニングするボード上で、カスタム・メイドのチップを使用した企業があるとも発言していた。そのウワサは、私たちも Structure イベントで聞いたが、実態を確認することはできなかった。また、そのカスタム・チップが ARM コアを使用しているのかどうかも分からなかった。

The point however is the same. Building a custom-chip that can efficiently mine Bitcoins is totally worth the cost of building such a processor.

しかし、視点は同じである。 つまり、Bitcoins を効率的にマイニングするカスタム·チップには、そのようなプロセッサを構築するコストに見合うだけの、価値が含まれるという事例である。

But wait, there’s more!

So the Facebooks, Amazons and Googles of the world may soon make their own chips so they can take full control of their computing economics. It may already be happening: Back in 2010 Google bought a company called Agnilux that reportedly was trying to build a power efficient server chip, and details about what Google did with that company are scant. Maybe it’s designing its own server silicon already, much like Apple designs its own iPhone and iPad processors.

したがって、世界における Facebook/Amazon/Google の人々は、ただちに自身のチップを作成することで、自身のコンピューティング経済を完全にコントロールできるだろう。すでに、それが生じている可能性もあル。  話は 2010年に戻るが、Google が買収した Agnilux は、電力効率の良いサーバーチップを構築する会社だった。しかし、Google が Agnilux を使って、何をしたかのかという情報は乏しい。おそらく、Apple が iPhone と iPad の独自プロセッサをデザインしたように、独自のサーバー・チップをデザインしているのかもしれない。

But the use of ARM cores for the CPU also means that there’s a secondary effect for startups and webscale vendors. Today’s CPUs are generally composed of the CPU core and all the related IP associated with how the CPU gets and sends bits; things like I/O, memory controllers, PCI Express interconnects and other elements that most people don’t ever think about are also on a typical x86 chip. Feldman calls these other elements Bucket 2 (the core is Bucket 1).

しかし、CPU のための ARM コアの活用により、スタートアップや Web スケール・ベンダーにとって、二次的な効果も生じることになる。今日の一般的な CPU は、CPU のコアと、CPU に関連する IP(ビットの送受信や、I/O という発想、メモリ・コントローラ、PCI Express 相互接続など)で構成されている。そして、大半の人々は、それらの IP が、一般的な x86 チップにも存在しているとは考えていない。Feldman は、それら一連の要素を Bucket 2 と呼んでいる(Bucket 1 は CPU コア)。

He wrote:

Because Intel and AMD were the only x86 game in town we each developed our own cores (Bucket 1) and each developed our Bucket 2 items as well. There has no been ecosystem, and little innovation in Bucket 2. We have limped along with incremental improvements from one generation to the next. It hasn’t made sense to start a company to do an on-chip fabric (to more intelligently tie cores together), or a better memory controller, or an application accelerator, because you only have two prospective customers, Intel and AMD both working on competitive projects. (Who wants to start a company with 2 potential customers?)

マーケットで競合する x86 は、Intel と AMD だけから提供されているため、それぞれが自身のコア(Bucket 1)を開発し、また、自身の Bucket 2 も開発している。したがって、そこにはエコシステムが不在であり、また、Bucket 2 には、わずかなイノベーションがあるのみである。つまり、私たちは、ある世代から次の世代へと、インクリメンタルな改善を引きずっているだけだ。したがって、このような形態は、オンチップ·ファブリック(よりインテリジェントなコア間接続)や、より効率の良いメモリ·コントローラ、そして、アプリケーション・アクセラレータを実現する、新たな企業を立ち上げるという意味で理にかなっていない。なぜなら、それらのスタートアップから見ると、Intel と AMD という競争力のあるプロジェクトを抱える、2つの潜在顧客しか存在しないからだ(そのような狭い市場で、誰が起業したいと思うだろう?)。

But in the ARM world things are different. Because any number of players can license an ARM core, each one is looking for points of differentiation outside the core (some with architecture licenses are looking to tweak the core itself) and can make chips with better I/O or specific workload accelerators. An example here is Calxeda, which is using an ARM core in highly dense servers but has also built a custom interconnect to send information rapidly between its hundreds of ARM cores.

しかし、ARM の世界は、それとは異なる世界である。何人かのプレイヤーが、ARM コアのライセンスを取得できるため、それぞれがコアの外側で、差別化のためのポイントを探すことになり(アーキテクチャ・ライセンスを持つプライヤーは、コア自体もの手を加えようとしている)、また、さらに効率の良い I/O や、特定のワークロードのためのアクセラレータをもつ、チップを作成することが可能である。事例としては、ARM コアを高密度サーバに用いる Calxeda が挙げられるが、そこれは、何百という ARM コアの間で、情報を迅速に送信するための、カスタム相互接続も構築されている。

So when the mega data centers look at the opportunities presented by ARM, it’s not as simple as buying a piece of silicon from Marvell or Applied Micro, or a Calxeda box from HP. According to Feldman, web giants are looking at co-developing ARM-based chips that will take advantage of the greater levels of customization offered outside of the CPU so they can optimize for their own applications’ needs.

したがって、メガ・データセンターでは、ARM から提示される機会に注目するのだが、 Marvell や Applied Micro からシリコンの断片を買うように、また、HP から Calxeda ボックスを買うように、シンプルなものではなくなってきている。Feldman によると、Web の巨人たちは、ARM ベース・チップの共同開発に注目している。それにより、CPU の外側で提供される、ハイレベルなカスタマイズを活用し、個々のアプリケーションのニーズに合わせた最適化を実現しようとしている。

This is a huge shift for the industry with big implications from players as diverse as Intel, the server makers and corporate IT buyers who suddenly may face higher cost computing than the web and cloud giants — making the move toward outsourcing IT more practical.

それは、Intel や サーバーメーカー、そして 企業の IT 購買が作り上げてきたものと同じくらいの、多様性を持ったプレーヤーたちが提供する、大きな意味を用いた業界の巨大シフトとなっていく。そして、従来からの構造を引きずる者たちは突如として、Web と Cloud の巨人たちと比較して、高額なコンピューティング・コストに直面する可能性を持つだろう。つまり、より実用的な IT アウトソーシングへ向けた移行がもたらされるのだ。

Related research

ーーーーー

image23データセンター用のカスタム・チップって、イイですね! 以前にポストした、『 OCP Summit 2013 キーノート : モノリスを破壊する! 』という抄訳では、Facebook の Frank Frankovsky さんが、ーーー すべてにおいて、最もエキサイティングなのは一連の新規開発であり、これまでのテクノロジーをさらに有効利用していくための、大きなステップを与えてくれる。 1つの産業として、私たちが直面する課題は、そこで構築/消費されていくハードウェアが、きわめてモノリシックでであるという点だ。つまり、私たちのプロセッサは、私たちのマザーボードと不可分であり、さらに言えば、特定のネットワーク・テクノロジーなどとも不可分である。こうした硬直した関係で、すべてが構成されているのだ。 そのため、急速に進化するソフトウェアに追いつくことの出来ないコンフィグレーションが、不完全なシステムへと導かれ、たくさんのエネルギーとマテリアルを浪費してしまう。ーーー と語っています。こうした懸念が、CPU レベルから払拭されていくのかもしれませんね。image

ーーーーー

<関連>

Open Compute 台湾 が 立ち上がった!
Open Compute について、知っておくべき 10 の事柄
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
OCP データセンターと、高温多湿気候との関係について
無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner 2012 Q4

Comments Off on Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう

OCP Summit 2013 キーノート : モノリスを破壊する!

Posted in .Chronicle, .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 14, 2013

OCP Summit IV: Breaking Up the Monolith
http://wp.me/pwo1E-5EX

Wednesday, January 16, 2013 · Posted by
Frank Frankovsky at 10:00 AM
http://www.opencompute.org/2013/01/16/ocp-summit-iv-breaking-up-the-monolith/

image

It’s hard to believe that the Open Compute Project was founded just a little over 18 months ago. At our first Summit, in June 2011, we had 200 participants, one official member (Facebook), and exactly three technology contributions (all from Facebook). Today, as nearly 2,000 people converge on Santa Clara to kick off the fourth OCP Summit, we have more than 50 official members and dozens of contributions from a wide variety of technology suppliers and consumers.

Open Compute Project が設立されてから、まだ 18ヶ月しか経っていないとは、信じがたい思いである。 2011年6月に開かれた最初のサミットには 200人が参加し、また、1人のオフィシャル・メンバー(Facebook)だけがいて、3つテクノロジー・コントリビューションだけがあった(すべてが Facebook から)。 そして、今日、4回目の OCP Summit をキックオフするために、約 2000人の人々が Santa Clara に押し寄せたように、私たちには 50のオフィシャル・メンバーがいて、多様なテクノロジー・プロバイダーとコンシューマから提供される、数多くのコントリビューションがある。

In October 2011 we announced the formation of a non-profit foundation to steer the project, and that organization has continued to evolve. In the last six months we’ve hired our first full-time employee, COO Cole Crawford, and added a new Compliance & Interoperability project. We’ve also seen our first international expansion, with the launch of an OCP Asia-Pacific chapter in Tokyo, and some encouraging engagement with the academic and research communities — including a Purdue University competition to design a biodegradable server chassis.

そして 2011年10月に、このプロジェクトを運営する非営利ファンデーションの立ち上げを発表したが、この組織は、いまもなお、発展し続けている。直近の 6ヶ月間において、私たちは初めてのフルタイム従業員であある Cole Crawford に、COO を務めてもらうようになり、また、新しいプロジェクトとして Compliance & Interoperability を加えた。 そして Tokyo では、OCP Asia-Pacific 支部の立ち上げという、初めてのインターナショナルな展開を確認している。 さらに、アカデミックおよび研究コミュニティとの連携という、力強い展開が生まれている。そこには、生分解性があるサーバー・シャーシを、初めて設計するという、Purdue University におけるコンペティションも含まれている。

We’ve also seen some tremendous engagement in the broader OCP community in the last six months. Some examples include:

そして、この 6ヶ月間では、OCP コミュニティの各所において、とても多くの協調が生じてきた。 以下は、その、いくつかの例である:

  • New members: More than a dozen new organizations have joined, including storage companies like EMC, Fusion-io, Hitachi, and Sandisk; microprocessor organizations like Applied Micro, ARM, Calxeda, and Tilera; and communications companies like NTT Data and Orange.
  • Adoption of open source hardware: More companies are being inspired to think differently about how they build out their infrastructures. Examples include Riot Games, which has decided to purchase systems based on OCP designs and built by Hyve Solutions, and Rackspace, which has decided to design and build its own infrastructure using OCP designs as a starting point.
  • Momentum around Open Vault and Open Rack: We launched these two projects at the third OCP Summit in May 2012, and we’re already seeing companies iterating on them in interesting ways and developing creative new technologies to complement them. Examples include new Open Rack designs from Avnet, Delta, Emerson, and Sanmina (many of which are being demonstrated at today’s Summit) and new server designs for the SAS expander slot on the Open Vault spec from Calxeda and Intel.
  • Products being delivered: Also at the May 2012 Summit, AMD and Intel announced that they’d been collaborating with Fidelity and Goldman Sachs to develop new boards to suit those companies’ specific workloads — codenamed Roadrunner and Decathlete, respectively. Just seven months later, both companies are here today demonstrating finished products.
  • New technology contributions: We’re starting to see significant momentum building behind technology contributions to the project. Some of the new contributions include designs for Fusion-io’s new 3.2TB ioScale card; the designs Rackspace has created for its new infrastructure; and designs for a new storage box that Hyve Solutions built for Open Rack. Facebook is also making a few new contributions, including modifications to Open Rack and Open Vault for use in cold-storage environments and designs for a new, all-flash database server (codenamed Dragonstone) and the latest version of its web server (codenamed Winterfell).
  • New members: 新しいメンバーとして、10社以上の組織が参加してきた。 そこには、EMC/Fusion-io/Hitachi/Sandisk などのストレージ・メーカーや、Applied Micro/ARM/Calxeda/Tilera などのマイクロ・プロセッサ・メーカー、そして NTT Data/Orange などのテレコム企業が含まれる。
  • Adoption of open source hardware:インフラストラクチャを構築していくための、これまでとは異なる方式により、数多くの企業がインスパイヤーされている。 Riot Games 場合は、Hyve Solutions が構築した、OCP デザインに基づくシステムの購入を決定した。また、Rackspace の場合は、OCP デザインを出発点とし活用する、独自のインフラを設/構築することに決めた。
  • Momentum around Open Vault and Open Rack: 2012年 5月に開催された、3回目の OCP Summit において、以下の 2つのプロジェクトが立ち上がった。 そして、すでに、それらを補完するために、複数の企業がきわめて興味深い方式で、創造的なニュー・テクノロジーを継続して開発している。たとえば、Open Rack デザインは、Avnet/Delta/Emerson/Sanmina により進められ、その多くが、今日の Summit でデモされる。 また、Open Vault 仕様の SAS エクスパンダー・スロットに対応する、新しいサーバー・デザインが、Calxeda/Intel により進められている。
  • Products being delivered: 同じく 2012年5月のサミットで AMD と Intel は、Fidelity および Goldman Sachs と協調することで、それぞれのワークロードに適した、新しいボードを開発すると発表した。AMD と Intel のボードは、Roadrunner と Decathlete とうコードネームを付けられている。そこから、わずか 7ヶ月が過ぎただけだが、両社とも最終的なプロダクトを、この Summit でデモする。
  • New technology contributions: このプロジェクトに対する、テクノロジー・コントリビューションの背後に、大きな勢いが構成されていることを、私たちは確認し始めている。いくつかの、新しいコントリビューションには、Fusion-io が提供する新しい 3.2 TB ioScale カードや、Rackspace による新しいインフラのデザイン、そして、Hyve Solutions が Open Rack のために構築した新しいストレージ・ボックスなどが含まれる。 Facebook も、いくつかのコントリビューションを、新たに行なっている。そこには、コールド・ストレージ環境で用いる、Open Rack と Open Vault に関するモディフィケーションや、まったく新しくデザインされたデータベース・サーバー(コードネーム Dragonstone)、そして、Web サーバーのための最新デザインなどが含まれる(コードネーム Winterfell)。

But most exciting of all are a series of new developments that will enable us to take some big steps forward toward better utilization of these technologies. One of the challenges we face as an industry is that much of the hardware we build and consume is highly monolithic — our processors are inextricably linked to our motherboards, which are in turn linked to specific networking technology, and so on. This leads to poorly configured systems that can’t keep up with rapidly evolving software and waste lots of energy and material.

しかし、すべてにおいて、最もエキサイティングなのは一連の新規開発であり、これまでのテクノロジーをさらに有効利用していくための、大きなステップを与えてくれる。 1つの産業として、私たちが直面する課題は、そこで構築/消費されていくハードウェアが、きわめてモノリシックでであるという点だ。つまり、私たちのプロセッサは、私たちのマザーボードと不可分であり、さらに言えば、特定のネットワーク・テクノロジーなどとも不可分である。こうした硬直した関係で、すべてが構成されているのだ。 そのため、急速に進化するソフトウェアに追いつくことの出来ないコンフィグレーションが、不完全なシステムへと導かれ、たくさんのエネルギーとマテリアルを浪費してしまう。

To fix this, we need to break up some of these monolithic designs — to disaggregate some of the components of these technologies from each other so we can build systems that truly fit the workloads they run and whose components can be replaced or updated independently of each other. Several members of the Open Compute Project have come together today to take the first steps toward this kind of disaggregation:

こうした問題を解消するためには、いくつかのモノリシックなデザインの破壊する必要がある。つまり、それらのテクノロジーを構成するコンポーネントを、相互に干渉しないかたちに分解していくのだ。そうすれば、それぞれのシステムで実行されるワークロードに、完全にフィットしたものを構築できる。 さらに言えば、それぞれのコンポーネントの、置き換えや更新も自由に行える。今日、ここに集まった Open Compute Project のメンバーは、この種の分解へ向けた、最初のステップを取っていくことになる:

  • Silicon photonics: Intel is contributing designs for its forthcoming silicon photonics technology, which will enable 100 Gbps interconnects — enough bandwidth to serve multiple processor generations. This technology also has such low latency that we can take components that previously needed to be bound to the same motherboard and begin to spread them out within a rack.
  • “Group Hug” board: Facebook is contributing a new common slot architecture specification for motherboards. This specification — which we’ve nicknamed “Group Hug” — can be used to produce boards that are completely vendor-neutral and will last through multiple processor generations. The specification uses a simple PCIe x8 connector to link the SOCs to the board.
  • New SOCs: AMD, Applied Micro, Calxeda, and Intel have all announced support for the Group Hug board, and Applied Micro and Intel have already built mechanical demos of their new designs.
  • Silicon photonics: Intel がコントリビュートしているのは、100 Gbps のインタラクションを可能にする、次世代の光学通信テクノロジーである。それにより、来るべきマルチ・プロセッサ時代においても、充分な帯域幅を確保できる。 また、このテクノロジーがあれば、従来では同じマザーボード上に配置する必要のあった、各種のコンポーネントをラック内に展開しても、低レイテンシを維持することが可能になる。
  • “Group Hug” board: Facebook がコントリビュートするのは、いくつかのマザーボードのための、新たな共通スロット・アーキテクチャの仕様である。この仕様は(Group Hug というニックネームを付けた)、完全にベンダー・ニュートラルな、ボードを作るために用いられ、また、マルチ・プロセッサの時代を通じて生き続けるだろう。 この仕様は、シンプルな PCIe  x8 コネクタを用い、それにより、SOC とボードをリンクさせる。
  • New SOCs: AMD/Applied Micro/Calxeda/Intel が、Group Hug ボードのサポートを発表した。 そして、すでに Applied Micro と Intel は、それぞれの新デザインの、メカニカル・デモを作成している。

Taken together, these announcements will enable data center operators to build systems that better fit the workloads they need to run and to upgrade through multiple generations of processors without having to replace the motherboards or the in-rack networking. This should in turn enable real gains in utilization and unlock even more efficiencies in data center construction and operations.

全体的な話になるが、これらの一連の発表により、データセンター・オペレーターたちは、実行すべきワークロードに適した、システムの構築を可能にするだろう。もちろん、それらのシステムは、マザーボードやラック内ネットワークを置き換える必要もなく、複数のプロセッサ世代をまたいでアップグレードしていける。 その次に来るのは、データセンターの構築/運用において、有用性とアンロックという観点から生じる現実的な利益であり、さらには、効率も改善されるはずである。

There’s a lot of work left to do here, but it’s never been more important for us to take these steps. As our lives become more connected, and as more devices and applications generate more data, we will face compute and storage challenges that existing technologies cannot handle efficiently.

そこには、置き去りにされてしまう、さまざまな仕事があるが、これらのステップを取っていく私たちにとって、重要ではなかったということだ。 いま以上に、私たちの生活がコネクトされるにつれて、さらには、より多くのデバイスとアプリケーションが、より多くのデータを生成するにつれて、これまでのテクノロジーでは効果的にハンドリング出来なかった、コンピュートとストレージの課題に、私たちは挑むことになる。

But we have one big advantage, as we face these challenges: We are doing this work together, in the open, and everyone has a chance to contribute — to help ensure that all the technologies we develop and consume are as scalable as possible, as efficient as possible, and as innovative as possible.

しかし、これらの手強い課題に直面するとき、私たちには大きなアドバンテージがある。 まず、私たちは協調している。 そして、オープンである。さらに言えば、誰にでもコントリビューションのチャンスがある。 それにより、私たちが開発する全テクノロジーが、可能な限りスケーラブルなかたちで消費され、可能な限りの効率を持ち、可能な限り革新的であることが、保証されていくのだ。

ーーーーー

TAG indexFrank Frankovsky さんのキーノートは、いつも淡々と、しかし、力強く展開していきます。 そして、このポストのように、派手な修飾語などは一切使わず、論理でグイグイと押してきます。 それは、彼にかぎらず、OCP のチーム全体に言えることであり、一瞬もブレることなく、オープンなインフラストラクチャの実現へ向けて、突き進んでいるように思えます。 さぁ、Japan が始まり、Asia Pacific が始まります。ご興味のあるかたは、OCP Japan 事務局まで お問い合わせください。 Image(70)

ーーーーー

<関連>

Open Compute Japan の FB ページが始まりました!
Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
Open Compute Summit 2013 : エコロジーと Asia Pacific
Open Compute Summit 2013 – Directory
Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり

 

Comments Off on OCP Summit 2013 キーノート : モノリスを破壊する!

%d bloggers like this: