Agile Cat — in the cloud

Facebook と Open Compute は、$55B のサーバー市場を解体/再生する

Posted in .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 5, 2013

Facebook and Open Compute just blew up the server and disrupted a $55B market
http://wp.me/pwo1E-5CM

Jan 16,2013 – By
Stacey Higginbotham
http://gigaom.com/2013/01/16/facebook-and-open-compute-just-blew-up-the-server-and-disrupted-a-55b-market/

_ Gigaom

photo: Stacey Higginbotham

Summary: Facebook took aim at the hardware business back in April 2011 with the launch of the Open Compute open hardware program, and Wednesday it fired the killing blow at the $55 billion server business.

Facebook は 2011年4月の時点で、オープンなハードウェア・プログラムである Open Compute を立ち上げたときから、ハードウェア・ビジネスをターゲットにしている。 そして、この水曜日(1/16)には、$55 billion のサーバー・ビジネスに、致命的な打撃を与えるところまで進んできた。

ーーーーー

The launch of two new features into the Open Compute hardware specifications on Wednesday has managed to do what Facebook has been threatening to do since it began building its vanity-free hardware back in 2010. The company has blown up the server — reducing it to interchangeable components.

Open Compute ハードウェア仕様に取り込まれた2つの新しい機能により、2010年に Facebook が質素なハードウェアを作り始めたときから、脅威とされてきたものが推進されていく。同社は、サーバーの概念を拡大し、交換可能なコンポーネントに変形してしまったのだ。

With this step it has disrupted the hardware business from the chips all the way up to the switches. It has also killed the server business, which IDC estimates will bring in $55 billion in revenue for 2012.

このステップにより、チップからスイッチにまで至る、ハードウェア・ビジネスが崩壊する。つまり、IDC が 2012年で $55 billion の収益があると推測する、サーバー・ビジネスが死に至るのである。

It’s something I said would happen the day Facebook launched the Open Compute project back in April 2011, and which we covered again at our Structure event last June when we talked to Frank Frankovsky, VP of hardware and design at Facebook. What Facebook and others have managed to do — in a relatively short amount of time by hardware standards — is create a platform for innovation in hardware and for the data center that will allow companies to scale to the needs of the internet, but also to do so in something closer to web-time. It will do this in a way that creates less waste, more efficient computing and more opportunity for innovation.

それは、2011年4月 の時点で Facebook が、Open Compute プロジェクトを立ち上げた日に、これから起こるであろうと予測した何かであり、また。昨年6月の Structure イベントでも、Facebook の VP of Hardware and Design である Frank Frankovsky が、話したてくれたものである。Facebook や他のメンバーたちが、何に成功したかというと、ハードウェアとデータセンターにおけるノベーションのためのプラットフォーム作りである(比較的に短い時間の中でハードウェアを標準化する)。つまり、それらの企業は、インターネットのスケールを達成するだけではなく、Web が進化していくスピードに合わせて、物事を処理していくだろう。それは、無駄を省き、コンピューティングの効率を高め、イノベーションの機会を増やすという、一連の流れの中で進められていく。

New features for a next-gen server

New Open Compute
technologies on a rack.

So what is Facebook doing? Facebook has contributed a consistent slot design for motherboards that will allow customers to use chips from any vendor. Until this point, if someone wanted to use AMD chips as opposed to Intel chips, they’d have to build a slightly different version of the server. With what Frankovsky called both “the equalizer” and the “group hug” slot, an IT user can pop in boards containing silicon from anyone. So far, companies including AMD, Intel, Calxeda and Applied Micro are committing to building products that will support that design.

そこでだが、Facebook は何をしているのだろう? Facebook がコントリビュートしている、マザーボードのための一貫したスロット・デザインにより、そのユーザーたちは、あらゆるベンダーから供給されるチップを、利用できるようになる。 これまでの常識は、Intel チップに替えて AMD チップを使いたいなら、それに合わせて、少し異なるサーバーを構築する必要があったはずだ。 Frankovsky が 『 the equalizer 』および『 group hug 』と呼ぶスロットを用いれば、シリコン・チップを搭載した各種のボードが、あらゆる IT ユーザーにより簡単に実装される。 これまでのところ、AMD/Intel/Calxeda/Applied Micro などの企業が、このデザインをサポートするためのプロダクト構築をコミットしている。

The other innovation that’s worth noting on the Open Compute standard is that Intel plans to announce a super-fast networking connection based on fiber optics that will allow data to travel between the chips in a rack. This 100 gigabit Ethernet photonic connector is something Intel plans to announce later this year, and Frankovsky can’t wait to get it into production in Facebook’s data centers.

Open Compute スタンダードにおいて、指摘しておく価値のある他のイノベーションとしては、Intel が発表した超高速ネットワーク・コネクションが挙げられる。 それは、光学ファイバーをベースとし、チップ間でのデータ転送を、ラック内で実現していくものとなる。 この、100 GBit イーサネット光学コネクタは、昨年の後半に Intel が発表した計画の一部であるが、Frankovsky は Facebook データセンターのプロダクション・システムで、躊躇することなくそれを利用したいようだ。

I’ve written a lot about how we need to get faster, fiber-based interconnects inside the data center, and the efforts to do so. What’s significant here is not just that this design speeds up chip-to-chip communication. With the right hardware, it runs a rack into a server and makes the idea of a top-of-rack switch irrelevant –something that that Cisco, Juniper and Arista might worry about (although Arista’s Andy Bechtolsheim is helping present this technology at Open Compute, so I imagine he has a plan). It’s also worth noting that only in 2012 did Facebook transition to an all 10 gigabit Ethernet network in its data centers, but now it wants to speed up the interconnects as soon as it can.

機会があるごとに、私が書き続けてきた主張は、データセンター内における高速相互接続の重要性であり、それをファイバー・ベースで推進していく必要性である。そして、このデザインにより、チップ間での高速通信が実現するという点に、限定して考えないことが重要である。 適切なハードウェアを用いることで、サーバー内でラックを走らせるようなアイデアが成り立ち、ラックのトップに配置されるスイッチを無意味なものにしてしまう。Cisco や Juniper、そして Arista には気分を害してほしくないが、そういうことだ。(ただし、Arista の Andy Bechtolsheim は、このテクノロジーの正しさについて Open Compute で後押ししていた。 したがって、何らかのプランを持っていると推測する)。さらに、2012年の時点において Facebook だけが、データセンター内での Ethernet ネットワークを、すべて 10 GBit に移行していることも、指摘すべき価値を持つだろう。しかし、同社は、可能な限り早期に、相互接続の高速化に取り組みたいようだ。

Openness makes the new servers flexible

So what has happened here is significant. Open Compute has managed to give customers — from financial services firms to web properties — a platform on which to build custom and modular servers.

したがって、いま、ここで起こっていることは重要である。 Open Compute は、カスタムでモジュラリティの高いサーバーを構築するためのプラットフォームを、金融から Web に至るまでの幅広い客層に対して提供することに成功した。

A good example of this might be building a house. There are plenty of ways of doing it, from hiring an architect to choosing a plan from a selection offered to you by a developer. That was the former server world — you either went all custom or chose from “plans” provided by Dell and others. But those chosen plans might come with four bathrooms and you might only want three. If you buy 10,000 unneeeded bathrooms, that’s a lot of added cost that brings you no value.

こうした考え方の、良い事例として、家を建てるという行為が挙げられるかもしれない。 そこには、建築士を雇うという選択から、デベロッパーが提供する多様なプランからの選択まで、それそ実現するための数多くの方式がある。そして、従前からのサーバー世界でも、すべてをカスタムなかたちで作るか、あるいは、Dell などから提供されるプランを選ぶという、2つの方式があったはずだ。しかし、あたなは 3つのバスルームが欲しいのだけど、そのプランには 4つのバスルームが組み入れられているかもしれない。もし、必要とされない 10,000のバスルームを購入するなら、価値をもたらさないものに、膨大なコストが生じることになる。

With Open Compute, Facebook showed people how to build houses out of shippping containers. As more and more elements like Group Hug or standard interconnects are added, it’s like you can pick your favorite brand of shipping container and pop it on. Even better, if you want a new bathroom, you can swap it out without ever affecting your bedroom. And for many companies the costs of building and operating these new servers will be less than the mass-produced boxes designed by others.

Open Compute により Facebook が示したことは、搬送用コンテナからパーツを取り出し、家を建てるための方式である。 Group Hug のような要素や、標準的な相互接続が、数多く加えられるにつれて、あなたの好みのブランドから取り寄せたものが、搬送用コンテナで送られてくるようになる。さらに良いことに、あなたがベッドルームに替えて、新しいバスルームを追加したいなら、その差し替えも簡単に行えるのだ。 そして、数多くの企業にとって、これらの新しいサーバーを構築/運用するためのコストは、他社により大量生産されたボックスよりも、安価なものになっていくだろう。

This is great for web-based businesses and anyone that relies on IT. It cuts out waste and it turns what was once a monolithic asset into something that can be upgraded with relative ease and at a lower cost. So when Frankovsky is talking about renting CPUs from Intel, for example, the Group Hug design makes that possible. He can rent CPUs for a workload, and then use those servers for something else without chucking them. He can swap out chip architectures, networking cards and drives at will to put the right mix of storage, network, and compute together for his jobs as they grow and shrink.

それは、Web ベースのビジネスや IT に携わる、あらゆる人々にとって素晴らしいものとなる。 まず、無駄が省かれる。 そして、かつてはモノリシックな資産であったものが、相対的に見て低コストであり、アップグレードが可能な何かに置き換わっていく。 したがって、仮に Frankovsky が Intel から、CPU を借り出そうと交渉するにして、Group Hug のデザインは、それを可能にするのだ。 彼は、あるワークロードのために CPU をレンタルし、それが終わっても放棄すること無く、他の目的を持ったサーバーのために活用できる。 彼は、チップ・アーキテクチャや、ネットワーク・カード、そして各種デバイスを入れ替えることができる。そして、自身の作業のライフサイクルに応じて、ストレージ/ネットワーク/コンピュータなどを、思いのままに、混ぜ合わせることができるのだ。

These servers can’t be provisioned as fast, but what Open Compute has done is create a server architecture that can scale and change as much as the cloud itself does. And it did so without the server guys.

これらのサーバーが、それほど早急に供給されることはないだろう。 しかし、Open Compute が行ったことは、スケールに対応し、また、クラウドの変化に追随し得る、サーバー・アーキテクチャの開発なのである。そして、サーバーの専門家を必要とせずに、それは推進されてきたのである。

Related research

ーーーーー

TAG index2012年 1月 16日・17日に開催された Open Compute Summit での、Stacey Higginbothamさんの取材記事です。 今回のテーマは『 Breaking Up the Monolith 』であり、その背景には、Open Compute に集まった幅広い支持層を取り込んで、よりパワフルなエコシステムを作っていこうという意図があります。その、Asia Pacific のカウンターパートとして、Open Compute Japan も立ち上がりました。 ハードウェア・ビジネスの解体と再生への動きは、もう止まらないところまで来ているようです。image

ーーーーー

<関連>

Open Compute Summit 2013 : エコロジーと Asia Pacific
Facebook は Open Compute を、コ・ロケーションにも適用する
Facebook 革命は、なにをハードウェア産業に強いるのか
Facebook の 巨大 DC を気化熱で冷やす、ミストの秘密について説明しよう
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?

Comments Off on Facebook と Open Compute は、$55B のサーバー市場を解体/再生する

%d bloggers like this: