Agile Cat — in the cloud

Facebook と Open Compute から、ついに Wedge という名の オープン・スイッチが発表された!

Posted in .Selected, Data Center Trends, Facebook, Network, Open Compute, Strategy by Agile Cat on June 20, 2014

Facebook to share first Open Compute Switch, the Wedge
http://wp.me/pwo1E-7AG

By Juha Saarinen on Jun 19, 2014
http://www.itnews.com.au/News/388499,facebook-to-share-first-open-compute-switch-the-wedge.aspx

Operates like an FBOSS.

Social networking site Facebook says it has built and is testing its first modular network switch, the Wedge, which it claims will provide the same power and flexibility as a server.

ソーシャル・ネットワーク・サイトである Facebook が言うには、初めてのモジュール式ネットワーク・スイッチである Wedge の構築が終わり、いまはテストの段階にあるようだ。 そして、この Wedge であるが、OCP サーバーと同様の、パワーとフレキシビリティを提供するという。

The work on the Wedge has been done by Facebook as part of the Open Compute Project, alongside vendors such as Broadcom, Intel, Mellanox and Accton which also contributed designs for open switches.

Wedge に関する作業は、 Open Compute Project 一環として、Facebook により完了しているが、いくつかのオープン・スイッチのデザインをコントリビュートした、Broadcom/Intel/Mellanox/Accton といったベンダーとの協業の結果でもある。

Facebook engineers Yuval Bachar and Adam Simpkins say the Wedge switch represents a departure from current networking design paradigms, and aims to run more like the existing OCP servers the company operates already.

Facebook のエンジニアである Yuval Bachar と Adam Simpkins は、この Wedge スイッチについて、現在のネットワーク・デザイン・パラダイムからの旅立ちを表現し、数多くの企業ですでに稼働している、現在の OCP サーバーのような世界を目指していると言う


クリックで拡大 ⇒

Hardware schematic of Facebook’s OCP Wedge switch

To achieve this, Facebook added a "Group Hug" microserver that punts packets inside the Wedge.

このアーキテクチャを実現するために、Facebook は Wedge の内部に、パケットを運ぶための Group Hug マイクロサーバーを追加している。

This is based on a 64-bit ARM-based AMD Opteron A1100 processor that was announced in January this year and is substantially smaller than the switching backplane form the 16 40 gigabit per second ports.

それは、今年の 1月に発表された 64 Bit ARM ベースの、AMD Opteron A1100 プロセッサをベースにしたものであり、16 個の 40 G bps ポートを構成する、既存のスイッチング・プレーンよりも、かなり小型化されている。

Facebook said it wants a proper server in the switch to bring the devices into their distributed management systems and run a standard Linux-based operating environment.

そして Facebook は、自身の分散マネージメント・システムにデバイスを取り込み、また、標準的な Linux を運用するスイッチのための、適切なサーバーを作り上げたいと述べている。

The Linux-based operating system for the switch is aptly named FBOSS and uses existing software libraries and systems that manage Facebook’s servers. This includes initial installation, upgrades, downgrades and decommissioning of systems in data centres.

このスイッチのための Linux ベース OS は、FBOSSという適切な名前を持つものであり、また、Facebook のサーバーを管理するために、既存のソフトウェア・ライブラリやシステムを使用するものとなる。このマネージメントの概念には、データセンター内における、イニシャル・インストールおよび、アップグレード、ダウングレード、システムの廃止などが含まれている。

Both the Wedge and FBOSS are being tested in Facebook’s network at present, ahead of the release of the designs to the OCP so that other members can use them.

いま、Wedge と FBOSS の双方が、Facebook のネットワーク内でテストされており、また、OCP のメンバーたちが利用できるようにするために、そのリリースへ向けてデザインを固めている状況にある。

The Open Compute Project was launched by Facebook in 2011 and aims to innovate open, scalable data centre technologies, with hardware and software that can be modified and replaced by users.

この Open Compute Project とは、2011年に Facebook により立ち上げられたものであり、ユーザーによる改変/置換が可能なハードウェア/ソフトウェアを用いて、オープンでスケーラブルなデータセンター・テクノロジーを革新していこうという目的を持っている。

Beyond server and networking technologies, the OCP is also advancing designs for storage, chassis, power supplies, device racks, energy-efficient, low-loss data centre electricity supplies, as well as cooling of facilities.

OCP の目指すものは、サーバーとネットワークのテクノロジーだけではない。具体的に言うと、最先端のストレージ/シャーシ/パワー・サプライ/ラックをデザインし、さらには、エネルギー効率の良い、省電力型のデータセンターを、クーリングも含めて検討していく。

Facebook is aiming to build all its new data centres with OCP designs, so as to enjoy benefits of economies of scale as well as rapid deployment, and lowered power usage.

Facebook は、すべての新しいデータセンターを、OCP デザインを用いて構築しようとしている。つまり、スケールを達成するだけではなく、デプロイメントの期間を短縮し、電力の消費量を引き下げることで、経済的なメリットを実現しようとしているのだ。

ーーーーー

2013年 1月に Santa Clara で開催された Open Compute Summit では、「モノリスを破壊する」というメッセージが発信されていました。 その中の一つに、この Wedge と命名されたオープン・スイッチの構想も含まれていたのでしょう。 それから、数カ月後に方針が示され、さらに1年を経て、このようなアーキテクチャによるプロダクトが整って来たわけです。この間のヒストリーについては、OCP Japan からコントリビュートされた、OCP News Archive:Open Switch で参照できます。 以下は、Open Compute による、モノリス破壊宣言です。

すべてにおいて、最もエキサイティングなのは一連の新規開発であり、これまでのテクノロジーをさらに有効利用していくための、大きなステップを与えてくれる。 1つの産業として、私たちが直面する課題は、そこで構築/消費されていくハードウェアが、きわめてモノリシックであるという点だ。つまり、私たちのプロセッサは、私たちのマザーボードと不可分であり、さらに言えば、特定のネットワーク・テクノロジーなどとも不可分である。こうした硬直した関係で、すべてが構成されているのだ。 そのため、急速に進化するソフトウェアに追いつくことの出来ないコンフィグレーションが、不完全なシステムへと導かれ、たくさんのエネルギーとマテリアルを浪費してしまう。

ーーーーー

<関連>

Facebook と OCP : オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出
Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?
SAP と HANA が、Open Compute に恋する理由
Open Compute Project : ついに Microsoft も参加を表明した!

 

OCP Summit 2013 キーノート : モノリスを破壊する!

Posted in .Chronicle, .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 14, 2013

OCP Summit IV: Breaking Up the Monolith
http://wp.me/pwo1E-5EX

Wednesday, January 16, 2013 · Posted by
Frank Frankovsky at 10:00 AM
http://www.opencompute.org/2013/01/16/ocp-summit-iv-breaking-up-the-monolith/

image

It’s hard to believe that the Open Compute Project was founded just a little over 18 months ago. At our first Summit, in June 2011, we had 200 participants, one official member (Facebook), and exactly three technology contributions (all from Facebook). Today, as nearly 2,000 people converge on Santa Clara to kick off the fourth OCP Summit, we have more than 50 official members and dozens of contributions from a wide variety of technology suppliers and consumers.

Open Compute Project が設立されてから、まだ 18ヶ月しか経っていないとは、信じがたい思いである。 2011年6月に開かれた最初のサミットには 200人が参加し、また、1人のオフィシャル・メンバー(Facebook)だけがいて、3つテクノロジー・コントリビューションだけがあった(すべてが Facebook から)。 そして、今日、4回目の OCP Summit をキックオフするために、約 2000人の人々が Santa Clara に押し寄せたように、私たちには 50のオフィシャル・メンバーがいて、多様なテクノロジー・プロバイダーとコンシューマから提供される、数多くのコントリビューションがある。

In October 2011 we announced the formation of a non-profit foundation to steer the project, and that organization has continued to evolve. In the last six months we’ve hired our first full-time employee, COO Cole Crawford, and added a new Compliance & Interoperability project. We’ve also seen our first international expansion, with the launch of an OCP Asia-Pacific chapter in Tokyo, and some encouraging engagement with the academic and research communities — including a Purdue University competition to design a biodegradable server chassis.

そして 2011年10月に、このプロジェクトを運営する非営利ファンデーションの立ち上げを発表したが、この組織は、いまもなお、発展し続けている。直近の 6ヶ月間において、私たちは初めてのフルタイム従業員であある Cole Crawford に、COO を務めてもらうようになり、また、新しいプロジェクトとして Compliance & Interoperability を加えた。 そして Tokyo では、OCP Asia-Pacific 支部の立ち上げという、初めてのインターナショナルな展開を確認している。 さらに、アカデミックおよび研究コミュニティとの連携という、力強い展開が生まれている。そこには、生分解性があるサーバー・シャーシを、初めて設計するという、Purdue University におけるコンペティションも含まれている。

We’ve also seen some tremendous engagement in the broader OCP community in the last six months. Some examples include:

そして、この 6ヶ月間では、OCP コミュニティの各所において、とても多くの協調が生じてきた。 以下は、その、いくつかの例である:

  • New members: More than a dozen new organizations have joined, including storage companies like EMC, Fusion-io, Hitachi, and Sandisk; microprocessor organizations like Applied Micro, ARM, Calxeda, and Tilera; and communications companies like NTT Data and Orange.
  • Adoption of open source hardware: More companies are being inspired to think differently about how they build out their infrastructures. Examples include Riot Games, which has decided to purchase systems based on OCP designs and built by Hyve Solutions, and Rackspace, which has decided to design and build its own infrastructure using OCP designs as a starting point.
  • Momentum around Open Vault and Open Rack: We launched these two projects at the third OCP Summit in May 2012, and we’re already seeing companies iterating on them in interesting ways and developing creative new technologies to complement them. Examples include new Open Rack designs from Avnet, Delta, Emerson, and Sanmina (many of which are being demonstrated at today’s Summit) and new server designs for the SAS expander slot on the Open Vault spec from Calxeda and Intel.
  • Products being delivered: Also at the May 2012 Summit, AMD and Intel announced that they’d been collaborating with Fidelity and Goldman Sachs to develop new boards to suit those companies’ specific workloads — codenamed Roadrunner and Decathlete, respectively. Just seven months later, both companies are here today demonstrating finished products.
  • New technology contributions: We’re starting to see significant momentum building behind technology contributions to the project. Some of the new contributions include designs for Fusion-io’s new 3.2TB ioScale card; the designs Rackspace has created for its new infrastructure; and designs for a new storage box that Hyve Solutions built for Open Rack. Facebook is also making a few new contributions, including modifications to Open Rack and Open Vault for use in cold-storage environments and designs for a new, all-flash database server (codenamed Dragonstone) and the latest version of its web server (codenamed Winterfell).
  • New members: 新しいメンバーとして、10社以上の組織が参加してきた。 そこには、EMC/Fusion-io/Hitachi/Sandisk などのストレージ・メーカーや、Applied Micro/ARM/Calxeda/Tilera などのマイクロ・プロセッサ・メーカー、そして NTT Data/Orange などのテレコム企業が含まれる。
  • Adoption of open source hardware:インフラストラクチャを構築していくための、これまでとは異なる方式により、数多くの企業がインスパイヤーされている。 Riot Games 場合は、Hyve Solutions が構築した、OCP デザインに基づくシステムの購入を決定した。また、Rackspace の場合は、OCP デザインを出発点とし活用する、独自のインフラを設/構築することに決めた。
  • Momentum around Open Vault and Open Rack: 2012年 5月に開催された、3回目の OCP Summit において、以下の 2つのプロジェクトが立ち上がった。 そして、すでに、それらを補完するために、複数の企業がきわめて興味深い方式で、創造的なニュー・テクノロジーを継続して開発している。たとえば、Open Rack デザインは、Avnet/Delta/Emerson/Sanmina により進められ、その多くが、今日の Summit でデモされる。 また、Open Vault 仕様の SAS エクスパンダー・スロットに対応する、新しいサーバー・デザインが、Calxeda/Intel により進められている。
  • Products being delivered: 同じく 2012年5月のサミットで AMD と Intel は、Fidelity および Goldman Sachs と協調することで、それぞれのワークロードに適した、新しいボードを開発すると発表した。AMD と Intel のボードは、Roadrunner と Decathlete とうコードネームを付けられている。そこから、わずか 7ヶ月が過ぎただけだが、両社とも最終的なプロダクトを、この Summit でデモする。
  • New technology contributions: このプロジェクトに対する、テクノロジー・コントリビューションの背後に、大きな勢いが構成されていることを、私たちは確認し始めている。いくつかの、新しいコントリビューションには、Fusion-io が提供する新しい 3.2 TB ioScale カードや、Rackspace による新しいインフラのデザイン、そして、Hyve Solutions が Open Rack のために構築した新しいストレージ・ボックスなどが含まれる。 Facebook も、いくつかのコントリビューションを、新たに行なっている。そこには、コールド・ストレージ環境で用いる、Open Rack と Open Vault に関するモディフィケーションや、まったく新しくデザインされたデータベース・サーバー(コードネーム Dragonstone)、そして、Web サーバーのための最新デザインなどが含まれる(コードネーム Winterfell)。

But most exciting of all are a series of new developments that will enable us to take some big steps forward toward better utilization of these technologies. One of the challenges we face as an industry is that much of the hardware we build and consume is highly monolithic — our processors are inextricably linked to our motherboards, which are in turn linked to specific networking technology, and so on. This leads to poorly configured systems that can’t keep up with rapidly evolving software and waste lots of energy and material.

しかし、すべてにおいて、最もエキサイティングなのは一連の新規開発であり、これまでのテクノロジーをさらに有効利用していくための、大きなステップを与えてくれる。 1つの産業として、私たちが直面する課題は、そこで構築/消費されていくハードウェアが、きわめてモノリシックでであるという点だ。つまり、私たちのプロセッサは、私たちのマザーボードと不可分であり、さらに言えば、特定のネットワーク・テクノロジーなどとも不可分である。こうした硬直した関係で、すべてが構成されているのだ。 そのため、急速に進化するソフトウェアに追いつくことの出来ないコンフィグレーションが、不完全なシステムへと導かれ、たくさんのエネルギーとマテリアルを浪費してしまう。

To fix this, we need to break up some of these monolithic designs — to disaggregate some of the components of these technologies from each other so we can build systems that truly fit the workloads they run and whose components can be replaced or updated independently of each other. Several members of the Open Compute Project have come together today to take the first steps toward this kind of disaggregation:

こうした問題を解消するためには、いくつかのモノリシックなデザインの破壊する必要がある。つまり、それらのテクノロジーを構成するコンポーネントを、相互に干渉しないかたちに分解していくのだ。そうすれば、それぞれのシステムで実行されるワークロードに、完全にフィットしたものを構築できる。 さらに言えば、それぞれのコンポーネントの、置き換えや更新も自由に行える。今日、ここに集まった Open Compute Project のメンバーは、この種の分解へ向けた、最初のステップを取っていくことになる:

  • Silicon photonics: Intel is contributing designs for its forthcoming silicon photonics technology, which will enable 100 Gbps interconnects — enough bandwidth to serve multiple processor generations. This technology also has such low latency that we can take components that previously needed to be bound to the same motherboard and begin to spread them out within a rack.
  • “Group Hug” board: Facebook is contributing a new common slot architecture specification for motherboards. This specification — which we’ve nicknamed “Group Hug” — can be used to produce boards that are completely vendor-neutral and will last through multiple processor generations. The specification uses a simple PCIe x8 connector to link the SOCs to the board.
  • New SOCs: AMD, Applied Micro, Calxeda, and Intel have all announced support for the Group Hug board, and Applied Micro and Intel have already built mechanical demos of their new designs.
  • Silicon photonics: Intel がコントリビュートしているのは、100 Gbps のインタラクションを可能にする、次世代の光学通信テクノロジーである。それにより、来るべきマルチ・プロセッサ時代においても、充分な帯域幅を確保できる。 また、このテクノロジーがあれば、従来では同じマザーボード上に配置する必要のあった、各種のコンポーネントをラック内に展開しても、低レイテンシを維持することが可能になる。
  • “Group Hug” board: Facebook がコントリビュートするのは、いくつかのマザーボードのための、新たな共通スロット・アーキテクチャの仕様である。この仕様は(Group Hug というニックネームを付けた)、完全にベンダー・ニュートラルな、ボードを作るために用いられ、また、マルチ・プロセッサの時代を通じて生き続けるだろう。 この仕様は、シンプルな PCIe  x8 コネクタを用い、それにより、SOC とボードをリンクさせる。
  • New SOCs: AMD/Applied Micro/Calxeda/Intel が、Group Hug ボードのサポートを発表した。 そして、すでに Applied Micro と Intel は、それぞれの新デザインの、メカニカル・デモを作成している。

Taken together, these announcements will enable data center operators to build systems that better fit the workloads they need to run and to upgrade through multiple generations of processors without having to replace the motherboards or the in-rack networking. This should in turn enable real gains in utilization and unlock even more efficiencies in data center construction and operations.

全体的な話になるが、これらの一連の発表により、データセンター・オペレーターたちは、実行すべきワークロードに適した、システムの構築を可能にするだろう。もちろん、それらのシステムは、マザーボードやラック内ネットワークを置き換える必要もなく、複数のプロセッサ世代をまたいでアップグレードしていける。 その次に来るのは、データセンターの構築/運用において、有用性とアンロックという観点から生じる現実的な利益であり、さらには、効率も改善されるはずである。

There’s a lot of work left to do here, but it’s never been more important for us to take these steps. As our lives become more connected, and as more devices and applications generate more data, we will face compute and storage challenges that existing technologies cannot handle efficiently.

そこには、置き去りにされてしまう、さまざまな仕事があるが、これらのステップを取っていく私たちにとって、重要ではなかったということだ。 いま以上に、私たちの生活がコネクトされるにつれて、さらには、より多くのデバイスとアプリケーションが、より多くのデータを生成するにつれて、これまでのテクノロジーでは効果的にハンドリング出来なかった、コンピュートとストレージの課題に、私たちは挑むことになる。

But we have one big advantage, as we face these challenges: We are doing this work together, in the open, and everyone has a chance to contribute — to help ensure that all the technologies we develop and consume are as scalable as possible, as efficient as possible, and as innovative as possible.

しかし、これらの手強い課題に直面するとき、私たちには大きなアドバンテージがある。 まず、私たちは協調している。 そして、オープンである。さらに言えば、誰にでもコントリビューションのチャンスがある。 それにより、私たちが開発する全テクノロジーが、可能な限りスケーラブルなかたちで消費され、可能な限りの効率を持ち、可能な限り革新的であることが、保証されていくのだ。

ーーーーー

TAG indexFrank Frankovsky さんのキーノートは、いつも淡々と、しかし、力強く展開していきます。 そして、このポストのように、派手な修飾語などは一切使わず、論理でグイグイと押してきます。 それは、彼にかぎらず、OCP のチーム全体に言えることであり、一瞬もブレることなく、オープンなインフラストラクチャの実現へ向けて、突き進んでいるように思えます。 さぁ、Japan が始まり、Asia Pacific が始まります。ご興味のあるかたは、OCP Japan 事務局まで お問い合わせください。 Image(70)

ーーーーー

<関連>

Open Compute Japan の FB ページが始まりました!
Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
Open Compute Summit 2013 : エコロジーと Asia Pacific
Open Compute Summit 2013 – Directory
Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり

 

Facebook と Open Compute は、$55B のサーバー市場を解体/再生する

Posted in .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 5, 2013

Facebook and Open Compute just blew up the server and disrupted a $55B market
http://wp.me/pwo1E-5CM

Jan 16,2013 – By
Stacey Higginbotham
http://gigaom.com/2013/01/16/facebook-and-open-compute-just-blew-up-the-server-and-disrupted-a-55b-market/

_ Gigaom

photo: Stacey Higginbotham

Summary: Facebook took aim at the hardware business back in April 2011 with the launch of the Open Compute open hardware program, and Wednesday it fired the killing blow at the $55 billion server business.

Facebook は 2011年4月の時点で、オープンなハードウェア・プログラムである Open Compute を立ち上げたときから、ハードウェア・ビジネスをターゲットにしている。 そして、この水曜日(1/16)には、$55 billion のサーバー・ビジネスに、致命的な打撃を与えるところまで進んできた。

ーーーーー

The launch of two new features into the Open Compute hardware specifications on Wednesday has managed to do what Facebook has been threatening to do since it began building its vanity-free hardware back in 2010. The company has blown up the server — reducing it to interchangeable components.

Open Compute ハードウェア仕様に取り込まれた2つの新しい機能により、2010年に Facebook が質素なハードウェアを作り始めたときから、脅威とされてきたものが推進されていく。同社は、サーバーの概念を拡大し、交換可能なコンポーネントに変形してしまったのだ。

With this step it has disrupted the hardware business from the chips all the way up to the switches. It has also killed the server business, which IDC estimates will bring in $55 billion in revenue for 2012.

このステップにより、チップからスイッチにまで至る、ハードウェア・ビジネスが崩壊する。つまり、IDC が 2012年で $55 billion の収益があると推測する、サーバー・ビジネスが死に至るのである。

It’s something I said would happen the day Facebook launched the Open Compute project back in April 2011, and which we covered again at our Structure event last June when we talked to Frank Frankovsky, VP of hardware and design at Facebook. What Facebook and others have managed to do — in a relatively short amount of time by hardware standards — is create a platform for innovation in hardware and for the data center that will allow companies to scale to the needs of the internet, but also to do so in something closer to web-time. It will do this in a way that creates less waste, more efficient computing and more opportunity for innovation.

それは、2011年4月 の時点で Facebook が、Open Compute プロジェクトを立ち上げた日に、これから起こるであろうと予測した何かであり、また。昨年6月の Structure イベントでも、Facebook の VP of Hardware and Design である Frank Frankovsky が、話したてくれたものである。Facebook や他のメンバーたちが、何に成功したかというと、ハードウェアとデータセンターにおけるノベーションのためのプラットフォーム作りである(比較的に短い時間の中でハードウェアを標準化する)。つまり、それらの企業は、インターネットのスケールを達成するだけではなく、Web が進化していくスピードに合わせて、物事を処理していくだろう。それは、無駄を省き、コンピューティングの効率を高め、イノベーションの機会を増やすという、一連の流れの中で進められていく。

New features for a next-gen server

New Open Compute
technologies on a rack.

So what is Facebook doing? Facebook has contributed a consistent slot design for motherboards that will allow customers to use chips from any vendor. Until this point, if someone wanted to use AMD chips as opposed to Intel chips, they’d have to build a slightly different version of the server. With what Frankovsky called both “the equalizer” and the “group hug” slot, an IT user can pop in boards containing silicon from anyone. So far, companies including AMD, Intel, Calxeda and Applied Micro are committing to building products that will support that design.

そこでだが、Facebook は何をしているのだろう? Facebook がコントリビュートしている、マザーボードのための一貫したスロット・デザインにより、そのユーザーたちは、あらゆるベンダーから供給されるチップを、利用できるようになる。 これまでの常識は、Intel チップに替えて AMD チップを使いたいなら、それに合わせて、少し異なるサーバーを構築する必要があったはずだ。 Frankovsky が 『 the equalizer 』および『 group hug 』と呼ぶスロットを用いれば、シリコン・チップを搭載した各種のボードが、あらゆる IT ユーザーにより簡単に実装される。 これまでのところ、AMD/Intel/Calxeda/Applied Micro などの企業が、このデザインをサポートするためのプロダクト構築をコミットしている。

The other innovation that’s worth noting on the Open Compute standard is that Intel plans to announce a super-fast networking connection based on fiber optics that will allow data to travel between the chips in a rack. This 100 gigabit Ethernet photonic connector is something Intel plans to announce later this year, and Frankovsky can’t wait to get it into production in Facebook’s data centers.

Open Compute スタンダードにおいて、指摘しておく価値のある他のイノベーションとしては、Intel が発表した超高速ネットワーク・コネクションが挙げられる。 それは、光学ファイバーをベースとし、チップ間でのデータ転送を、ラック内で実現していくものとなる。 この、100 GBit イーサネット光学コネクタは、昨年の後半に Intel が発表した計画の一部であるが、Frankovsky は Facebook データセンターのプロダクション・システムで、躊躇することなくそれを利用したいようだ。

I’ve written a lot about how we need to get faster, fiber-based interconnects inside the data center, and the efforts to do so. What’s significant here is not just that this design speeds up chip-to-chip communication. With the right hardware, it runs a rack into a server and makes the idea of a top-of-rack switch irrelevant –something that that Cisco, Juniper and Arista might worry about (although Arista’s Andy Bechtolsheim is helping present this technology at Open Compute, so I imagine he has a plan). It’s also worth noting that only in 2012 did Facebook transition to an all 10 gigabit Ethernet network in its data centers, but now it wants to speed up the interconnects as soon as it can.

機会があるごとに、私が書き続けてきた主張は、データセンター内における高速相互接続の重要性であり、それをファイバー・ベースで推進していく必要性である。そして、このデザインにより、チップ間での高速通信が実現するという点に、限定して考えないことが重要である。 適切なハードウェアを用いることで、サーバー内でラックを走らせるようなアイデアが成り立ち、ラックのトップに配置されるスイッチを無意味なものにしてしまう。Cisco や Juniper、そして Arista には気分を害してほしくないが、そういうことだ。(ただし、Arista の Andy Bechtolsheim は、このテクノロジーの正しさについて Open Compute で後押ししていた。 したがって、何らかのプランを持っていると推測する)。さらに、2012年の時点において Facebook だけが、データセンター内での Ethernet ネットワークを、すべて 10 GBit に移行していることも、指摘すべき価値を持つだろう。しかし、同社は、可能な限り早期に、相互接続の高速化に取り組みたいようだ。

Openness makes the new servers flexible

So what has happened here is significant. Open Compute has managed to give customers — from financial services firms to web properties — a platform on which to build custom and modular servers.

したがって、いま、ここで起こっていることは重要である。 Open Compute は、カスタムでモジュラリティの高いサーバーを構築するためのプラットフォームを、金融から Web に至るまでの幅広い客層に対して提供することに成功した。

A good example of this might be building a house. There are plenty of ways of doing it, from hiring an architect to choosing a plan from a selection offered to you by a developer. That was the former server world — you either went all custom or chose from “plans” provided by Dell and others. But those chosen plans might come with four bathrooms and you might only want three. If you buy 10,000 unneeeded bathrooms, that’s a lot of added cost that brings you no value.

こうした考え方の、良い事例として、家を建てるという行為が挙げられるかもしれない。 そこには、建築士を雇うという選択から、デベロッパーが提供する多様なプランからの選択まで、それそ実現するための数多くの方式がある。そして、従前からのサーバー世界でも、すべてをカスタムなかたちで作るか、あるいは、Dell などから提供されるプランを選ぶという、2つの方式があったはずだ。しかし、あたなは 3つのバスルームが欲しいのだけど、そのプランには 4つのバスルームが組み入れられているかもしれない。もし、必要とされない 10,000のバスルームを購入するなら、価値をもたらさないものに、膨大なコストが生じることになる。

With Open Compute, Facebook showed people how to build houses out of shippping containers. As more and more elements like Group Hug or standard interconnects are added, it’s like you can pick your favorite brand of shipping container and pop it on. Even better, if you want a new bathroom, you can swap it out without ever affecting your bedroom. And for many companies the costs of building and operating these new servers will be less than the mass-produced boxes designed by others.

Open Compute により Facebook が示したことは、搬送用コンテナからパーツを取り出し、家を建てるための方式である。 Group Hug のような要素や、標準的な相互接続が、数多く加えられるにつれて、あなたの好みのブランドから取り寄せたものが、搬送用コンテナで送られてくるようになる。さらに良いことに、あなたがベッドルームに替えて、新しいバスルームを追加したいなら、その差し替えも簡単に行えるのだ。 そして、数多くの企業にとって、これらの新しいサーバーを構築/運用するためのコストは、他社により大量生産されたボックスよりも、安価なものになっていくだろう。

This is great for web-based businesses and anyone that relies on IT. It cuts out waste and it turns what was once a monolithic asset into something that can be upgraded with relative ease and at a lower cost. So when Frankovsky is talking about renting CPUs from Intel, for example, the Group Hug design makes that possible. He can rent CPUs for a workload, and then use those servers for something else without chucking them. He can swap out chip architectures, networking cards and drives at will to put the right mix of storage, network, and compute together for his jobs as they grow and shrink.

それは、Web ベースのビジネスや IT に携わる、あらゆる人々にとって素晴らしいものとなる。 まず、無駄が省かれる。 そして、かつてはモノリシックな資産であったものが、相対的に見て低コストであり、アップグレードが可能な何かに置き換わっていく。 したがって、仮に Frankovsky が Intel から、CPU を借り出そうと交渉するにして、Group Hug のデザインは、それを可能にするのだ。 彼は、あるワークロードのために CPU をレンタルし、それが終わっても放棄すること無く、他の目的を持ったサーバーのために活用できる。 彼は、チップ・アーキテクチャや、ネットワーク・カード、そして各種デバイスを入れ替えることができる。そして、自身の作業のライフサイクルに応じて、ストレージ/ネットワーク/コンピュータなどを、思いのままに、混ぜ合わせることができるのだ。

These servers can’t be provisioned as fast, but what Open Compute has done is create a server architecture that can scale and change as much as the cloud itself does. And it did so without the server guys.

これらのサーバーが、それほど早急に供給されることはないだろう。 しかし、Open Compute が行ったことは、スケールに対応し、また、クラウドの変化に追随し得る、サーバー・アーキテクチャの開発なのである。そして、サーバーの専門家を必要とせずに、それは推進されてきたのである。

Related research

ーーーーー

TAG index2012年 1月 16日・17日に開催された Open Compute Summit での、Stacey Higginbothamさんの取材記事です。 今回のテーマは『 Breaking Up the Monolith 』であり、その背景には、Open Compute に集まった幅広い支持層を取り込んで、よりパワフルなエコシステムを作っていこうという意図があります。その、Asia Pacific のカウンターパートとして、Open Compute Japan も立ち上がりました。 ハードウェア・ビジネスの解体と再生への動きは、もう止まらないところまで来ているようです。image

ーーーーー

<関連>

Open Compute Summit 2013 : エコロジーと Asia Pacific
Facebook は Open Compute を、コ・ロケーションにも適用する
Facebook 革命は、なにをハードウェア産業に強いるのか
Facebook の 巨大 DC を気化熱で冷やす、ミストの秘密について説明しよう
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?

%d bloggers like this: