Agile Cat — in the cloud

Facebook と Open Compute から、ついに Wedge という名の オープン・スイッチが発表された!

Posted in .Selected, Data Center Trends, Facebook, Network, Open Compute, Strategy by Agile Cat on June 20, 2014

Facebook to share first Open Compute Switch, the Wedge
http://wp.me/pwo1E-7AG

By Juha Saarinen on Jun 19, 2014
http://www.itnews.com.au/News/388499,facebook-to-share-first-open-compute-switch-the-wedge.aspx

Operates like an FBOSS.

Social networking site Facebook says it has built and is testing its first modular network switch, the Wedge, which it claims will provide the same power and flexibility as a server.

ソーシャル・ネットワーク・サイトである Facebook が言うには、初めてのモジュール式ネットワーク・スイッチである Wedge の構築が終わり、いまはテストの段階にあるようだ。 そして、この Wedge であるが、OCP サーバーと同様の、パワーとフレキシビリティを提供するという。

The work on the Wedge has been done by Facebook as part of the Open Compute Project, alongside vendors such as Broadcom, Intel, Mellanox and Accton which also contributed designs for open switches.

Wedge に関する作業は、 Open Compute Project 一環として、Facebook により完了しているが、いくつかのオープン・スイッチのデザインをコントリビュートした、Broadcom/Intel/Mellanox/Accton といったベンダーとの協業の結果でもある。

Facebook engineers Yuval Bachar and Adam Simpkins say the Wedge switch represents a departure from current networking design paradigms, and aims to run more like the existing OCP servers the company operates already.

Facebook のエンジニアである Yuval Bachar と Adam Simpkins は、この Wedge スイッチについて、現在のネットワーク・デザイン・パラダイムからの旅立ちを表現し、数多くの企業ですでに稼働している、現在の OCP サーバーのような世界を目指していると言う


クリックで拡大 ⇒

Hardware schematic of Facebook’s OCP Wedge switch

To achieve this, Facebook added a "Group Hug" microserver that punts packets inside the Wedge.

このアーキテクチャを実現するために、Facebook は Wedge の内部に、パケットを運ぶための Group Hug マイクロサーバーを追加している。

This is based on a 64-bit ARM-based AMD Opteron A1100 processor that was announced in January this year and is substantially smaller than the switching backplane form the 16 40 gigabit per second ports.

それは、今年の 1月に発表された 64 Bit ARM ベースの、AMD Opteron A1100 プロセッサをベースにしたものであり、16 個の 40 G bps ポートを構成する、既存のスイッチング・プレーンよりも、かなり小型化されている。

Facebook said it wants a proper server in the switch to bring the devices into their distributed management systems and run a standard Linux-based operating environment.

そして Facebook は、自身の分散マネージメント・システムにデバイスを取り込み、また、標準的な Linux を運用するスイッチのための、適切なサーバーを作り上げたいと述べている。

The Linux-based operating system for the switch is aptly named FBOSS and uses existing software libraries and systems that manage Facebook’s servers. This includes initial installation, upgrades, downgrades and decommissioning of systems in data centres.

このスイッチのための Linux ベース OS は、FBOSSという適切な名前を持つものであり、また、Facebook のサーバーを管理するために、既存のソフトウェア・ライブラリやシステムを使用するものとなる。このマネージメントの概念には、データセンター内における、イニシャル・インストールおよび、アップグレード、ダウングレード、システムの廃止などが含まれている。

Both the Wedge and FBOSS are being tested in Facebook’s network at present, ahead of the release of the designs to the OCP so that other members can use them.

いま、Wedge と FBOSS の双方が、Facebook のネットワーク内でテストされており、また、OCP のメンバーたちが利用できるようにするために、そのリリースへ向けてデザインを固めている状況にある。

The Open Compute Project was launched by Facebook in 2011 and aims to innovate open, scalable data centre technologies, with hardware and software that can be modified and replaced by users.

この Open Compute Project とは、2011年に Facebook により立ち上げられたものであり、ユーザーによる改変/置換が可能なハードウェア/ソフトウェアを用いて、オープンでスケーラブルなデータセンター・テクノロジーを革新していこうという目的を持っている。

Beyond server and networking technologies, the OCP is also advancing designs for storage, chassis, power supplies, device racks, energy-efficient, low-loss data centre electricity supplies, as well as cooling of facilities.

OCP の目指すものは、サーバーとネットワークのテクノロジーだけではない。具体的に言うと、最先端のストレージ/シャーシ/パワー・サプライ/ラックをデザインし、さらには、エネルギー効率の良い、省電力型のデータセンターを、クーリングも含めて検討していく。

Facebook is aiming to build all its new data centres with OCP designs, so as to enjoy benefits of economies of scale as well as rapid deployment, and lowered power usage.

Facebook は、すべての新しいデータセンターを、OCP デザインを用いて構築しようとしている。つまり、スケールを達成するだけではなく、デプロイメントの期間を短縮し、電力の消費量を引き下げることで、経済的なメリットを実現しようとしているのだ。

ーーーーー

2013年 1月に Santa Clara で開催された Open Compute Summit では、「モノリスを破壊する」というメッセージが発信されていました。 その中の一つに、この Wedge と命名されたオープン・スイッチの構想も含まれていたのでしょう。 それから、数カ月後に方針が示され、さらに1年を経て、このようなアーキテクチャによるプロダクトが整って来たわけです。この間のヒストリーについては、OCP Japan からコントリビュートされた、OCP News Archive:Open Switch で参照できます。 以下は、Open Compute による、モノリス破壊宣言です。

すべてにおいて、最もエキサイティングなのは一連の新規開発であり、これまでのテクノロジーをさらに有効利用していくための、大きなステップを与えてくれる。 1つの産業として、私たちが直面する課題は、そこで構築/消費されていくハードウェアが、きわめてモノリシックであるという点だ。つまり、私たちのプロセッサは、私たちのマザーボードと不可分であり、さらに言えば、特定のネットワーク・テクノロジーなどとも不可分である。こうした硬直した関係で、すべてが構成されているのだ。 そのため、急速に進化するソフトウェアに追いつくことの出来ないコンフィグレーションが、不完全なシステムへと導かれ、たくさんのエネルギーとマテリアルを浪費してしまう。

ーーーーー

<関連>

Facebook と OCP : オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出
Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?
SAP と HANA が、Open Compute に恋する理由
Open Compute Project : ついに Microsoft も参加を表明した!

 

なぜ、IBM は Power チップをオープン化したのか? そして、Google の戦略は何処にあるのか?

Posted in Data Center Trends, Google, IBM, Samsung by Agile Cat on June 10, 2014

IBM Opens Chip Architecture, in Strategy of Sharing and Self-Interest
http://wp.me/pwo1E-7yZ

By
STEVE LOHR – April 23, 2014
http://bits.blogs.nytimes.com/2014/04/23/ibm-opens-chip-architecture-in-strategy-of-sharing-and-self-interest/

 

IBM’s chip business needs help. So the company has opened up the technology of its Power microprocessors, inviting others to modify and manufacture Power-based designs pretty much as they see fit. This open, liberal licensing initiative is conducted under the auspices of the OpenPower Foundation, which was incorporated in December.

IBM のチップ・ビジネスは助けを必要としている。したがって、同社は、このテクノロジーをオープン化した。 それにより、さまざまなニーズに合わせて、Power ベースのテクノロジーをモディファイし、また、製造していけるように、興味を持つ企業を引き込もうとしている。この、オープンでリベラルなライセンス・イニシアチブは、昨年の 12月に設立された OpenPower Foundation に支援/運用されていく。

The foundation now has two dozen members in addition to IBM, including Google, Samsung, Nvidia, Mellanox and Tyan. On Wednesday, IBM and the foundation are announcing the first fruits of that collaboration – server computers based on IBM’s new Power8 chip technology. The chips, experts say, are unusually fast, powerful and tuned for handling vast amounts of data.

いま、このファンデーションには、IBM に加えて、Google/Samsung/Nvidia/Mellanox/Tyan などを含む、20社以上の企業が参加している。この水曜日に、IBM とファンデーションが発表したのは、同社の新しい Power8 チップ・テクノロジーをベースにした、コラボレーションにおける最初の成果物としてのサーバーである。

Jack Plunkett
Feature Photo Service for IBM

Two IBM engineers working on a stack of servers using the company’s Power-based designs.

IBM and Google are the key strategic players in the foundation. IBM’s Power systems hold the largest share of the market for server computers running the Unix operating system. But the Unix server market is withering. Sales of IBM’s Power systems fell 31 percent last year.

IBM と Google は、このファンデーションをリードする、戦略的なプレーヤーである。 IBM の Power システムは、Unix オペレーティング・システムを走らせる、サーバー・コンピュータ市場において、最大のシェアを保持している。しかし、Unix サーバー市場は衰退しており、昨年の IBM Power システムは、その売上を 31% も減らしているのだ。

“For the Power technology to survive, IBM has to do this,” said Charles King, principal analyst for Pund-IT, a research firm. “It needs to find new markets for Power.”

「Power テクノロジーが生き残るためには、それを行わなければならない。 つまり、IBM は Power のための、新たなマーケットを探し出す必要がある」と、調査会社 Pond-IT の主席アナリストである Charles King は述べている。

The new market strategy is to become an attractive hardware home for Linux, the operating system of choice in Internet-era data centers. Linux typically runs on industry-standard chips, mainly produced by Intel but also Advanced Micro Devices.

この、新しいマーケットの戦略とは、インターネット時代のデータセンターにおける、最適なオペレーティング・システムとして認識される Linux のための、魅力的なハードウェア・プラットフォームになることだ。一般的に見て Linux は、主として Intel および AMD が製造する、業界標準チップ上で動作している。

“We really wanted to give people an alternative to Linux on Intel,” said Tom Rosamilia, senior vice president in charge of I.B.M.’s hardware business, a position he assumed last August.

「 私たちは、Intel 上で Linux を走らせる人々に対して、対案を提供したいと本気で考えている」と、IBM の VP of Hardware Business である Tom Rosamilia は語っている(昨年 8月時点の役職だと記憶している)。

IBM’s decision to open up its chip technology, Mr. Rosamilia said, takes a page from the playbook of ARM, whose open licensing policy has helped make its low-power processors a leader in the smartphone and tablet markets.

Rosamilia によると、このチップ・テクノロジーのオープン化は、ARM の戦略ノートから、ページを切り取ったものであるという。 ARM のオープン・ライセンス・ポリシーは、スマートフォンやタブレットにおける、低消費電力プロセッサー市場のリーダーとしてのポジションを確かなものにしている。

Gordon MacKean, who leads Google’s hardware teams, is the chairman of the OpenPower Foundation. In an interview, Mr. MacKean said opening up the Power technology allowed many groups to fine-tune it, potentially driving down the price and improving the performance of data-intensive computing.

Google のハードウェア·チームを率いる Gordon MacKean は、OpenPower Foundation の Chairman も務める。MacKean は、インタビューにおいて、多様なグループにフィットするよう、Power テクノロジーをオープンにしていくと述べている。それにより、コストの低減を推進し、データ集約型コンピューティング性能を向上させるという。

Mr. MacKean declined to discuss Google’s own plans for using Power-based technology in its many massive data centers. But analysts say the embrace of Power has two crucial advantages for Google. First, the Internet giant builds its own data centers and tweaks the technology in its server computers, and the licensing regime in the Power foundation is hacker-friendly in a way Intel’s handling of its intellectual property is not.

MacKean は、大規模なデータセンター群で Power ベース・テクノロジーを使用するという、Google の計画に関する議論を、当初は辞退したという。しかし、アナリストたちは、Power の提供は Google にとって、2つの重要なメリットを有していると発言した。第一に、このインターネット・ジャイアントは、、独自のデータセンターを構築し、そのサーバー・コンピュータ・テクノロジーを磨きあげている。そして、Power Foundation のライセンス制度は、Intel が知的財産を取り扱う方式の外側で、とてもハッカーフレンドリーである。

The second advantage for Google is negotiating power. In the heyday of the mainframe era, Japanese companies like Hitachi made machines that competed with IBM’s. In those days, corporate technology buyers used to refer to the “million-dollar Hitachi coffee cup.” When the IBM sales team arrived, they explained, having the Hitachi coffee cup on your desk was valuable indeed – a reminder to IBM that there was an alternative, which became a lever for negotiating lower prices.

Google にとっての第二のメリットは、交渉力である。メインフレームの全盛期においては、Hitachi などの日本企業が、IBM と競合するマシンを作っていた。当時のコーポレート·テクノロジー・バイヤーたちは、 “Million-Dollar Hitachi Coffee Cup” と言いながら、それらを使っていた。そして、IBM のセールス・チームが訪問したとき、その “Million-Dollar Hitachi Coffee Cup” を指差しながら、たしかな価値があると、顧客たちは説明したものだ。つまり、対案が存在することで、価格を引き下げるための交渉が始まることを、IBM は思い出すことになる。

An open Power technology, analysts say, could serve a similar role if it rises to become a genuine, price-competitive alternative to Intel-based servers.

アナリストたちによると、オープンな Power テクノロジーが、Intel ベース・サーバーに対して、価格面で本当に競争力のある対案として浮上した場合、メインフレームのときと同じような役割を果たすことになるという。

And Google, analysts say, is potentially a big enough customer to insure that Power technology is an alternative. “Google could make this a market on its own,” said Rob Enderle, an independent analyst in San Jose.

そして Google は、Power テクノロジーが対案になり得ることを証明できる、充分な規模を持った顧客である。「Google は、そのマーケットを、自分のものにもできる」と、San Jose 在住の独立系アナリストである Rob Endele は述べてる。

ーーーーー

この、IBM と Google の連携は、4月の末に報道され、世界を驚かせました。Gigazine では、Google におけるハードウェアとソフトウェアの刷新と、それに伴うリスクについて指摘していますが、Intel だけに依存する状態を継続することの方が、はるかにリスクが高いと考えているのだろう、と推察しています。かつて、Wintel という時代がありましたが、ユーザー主導のパワー・バランスが機能するようになり、コンシューマの世界においても、プロフェッショナルの世界においても、一人勝ちのベンダーを作らせない新たなステージへと、私たちは移行しているのかもしれませんね。

ーーーーー

<関連>

SoftLayer の Hong Kong DC がオープンした: IBM の $1.2B はアジアへと流れ込む?
IBM が クラウド・シフトを決断した理由:それを示す1枚のチャート
Google Cloud Platform のアジア展開が、ついに本格化してきた! from 台北
Snapchat の CTO が、Google Cloud Platform Live に登壇するということは?
Google の Before/After で激変したプラットフォーム勢力図:それを示す1枚のチャート

台湾の Wistron と Inventec が、ついに ARM サーバーの生産に着手する!

Posted in Asia, Data Center Trends, Open Compute by Agile Cat on April 24, 2014

Wistron, Inventec to start ODM production of ARM-architecture servers for HP in 2H14
http://wp.me/pwo1E-7r7
Aaron Lee, Taipei; Joseph Tsai, DIGITIMES – 23 April, 2014
http://www.digitimes.com/news/a20140423PD205.html

_ DiGiTimes

Wistron and Inventec will begin ODM production of ARM-architecture servers for Hewlett-Packard (HP) in the second half of 2014, according to Taiwan-based supply chain makers.

Taiwan ベースのサプライチェーン・メーカーたちによると、Hewlett-Packard (HP) からの発注に対して、Wistron と Inventec は、ARM アーキテクチャ・サーバの ODM 生産に、2014年後半から着手することになる。

Some component makers will start shipping products for HP’s ARM-based servers in May.

また、いくつかのコンポーネント・メーカーたちは、HP の ARM ベース・サーバーに関連する製品を、この 5月から出荷するとしている。

Although ARM solutions are unlikely to become an immediate threat to Intel, the sources believe the extra option should provide clients more leverage to bargain for better prices and more resources from Intel.

ARM expects its platform to account for 5-10% of the global server market prior to 2016 and will reach 10-15% by 2017.

この ARM ソリューションが、Intel に対する差し迫った脅威になる可能性は低いと、この情報筋は説明している。 ただし、Intel も資金を投入し、それらのクライアントに対して、価格を引き下げたプロダクトが提供されるとしている。また、このプラットフォームに関する ARM の期待値は、2016年までにグローバル・サーバー市場の 5〜10% に、そして2017年まで 10〜15% に達するというものである。

In addition to AMD, Calxeda and Marvell, Samsung Electronics has also reportedly started developing ARM-based processors for servers.

伝えられるところによると、AMD/Calxeda/Marvell に加えて Samsung Electronics も、サーバー用の ARM ベース・プロセッサの開発に着手しているようだ。

Related stories

ーーーーー

TAG indexCalxeda が残念なことになってしまいましたが、つい先日の eWeek に「AMD to Launch ARM-Based Opteron Server Chip in Late 2014」という記事がポストされていたので、おそらく、それを受けたかたちで Wistron/Inventec が動き出すのでしょう。ARM サーバーに関する情報を調べてみたら、Agile_Cat では 2011年に 「ARM – データセンターから Intel を たたき出せ!」というタイトルでポストしたのが最初のものでした。そこから、そろそろ 4年が経とうとしていますが、ようやく本格化しそうです。 また、Linaro のような組織が頑張ることで、ARM サーバーのためのエコシステムも充実しているようです。これからが、楽しみですね!image

ーーーーー

<関連>

Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう
SeaMicro を買収した AMD は、ARM ライセンスの取得へと向かうのか?
ARM チップは 5-watt の電力でサーバーを動かす
ARM vs. Intel : 主戦場は スマホ・サイズの サーバー?
ARM の 16 コアは、モバイル基地局へも攻め入る

Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう

Posted in .Selected, Data Center Trends, Facebook, Google, Open Compute, Strategy by Agile Cat on August 28, 2013

Forget servers; One day Facebook, Google and other web giants will make their own custom chips
http://wp.me/pwo1E-6xC

By
Stacey Higginbotham
http://gigaom.com/2013/07/06/forget-servers-one-day-facebook-google-and-other-web-giants-will-make-their-own-custom-chips/

_ Gigaom

Summary: Will web giants soon follow in Apple’s footsteps with the iPhone, and design specialty silicon for the servers running their operations? An AMD executive thinks that day is around the corner.

Summary: Web の巨人たちは、すぐにでも Apple における iPhone の足跡をたどり、彼らが運用するサーバーに特化された、シリコン・チップをデザインしていくのだろうか?  ある AMD の幹部は、その日が迫っていると考えている。

ーーーーー

photo: (c) 2013 Pinar Ozger
pinar@pinarozger.com

It has become clear that ARM is invading the data center as chips built using its designs grow more powerful for enterprise computing loads and as the workloads and economics of webscale computing make the ARM architecture more attractive. But using ARM cores also changes the cost of designing a new chip, and frees the non-CPU elements on the chip from being dictated by a specific vendor.

しだいに明らかになってきたことは、ARM はエンタープライズ・コンピューティングにおける負荷とワークロードに対して、チップ構成をパワフルにしていくためのデザインを成長させ、データセンターに侵入しようとしていることだ。そして、Web スケール・コンピューティングの経済が、ARM アーキテクチャをより魅力的にする。さらに言えば、ARM Core の利用は、新しいチップのデザイン・コストを変更し、特定ベンダーにより決定されている、チップ上の non-CPU 要素を解放する。

Both of these trends are driving webscale companies to discuss making custom CPU cores for their specific workloads, and are allowing startups to try to break into the world of interconnect fabrics and memory management that used to be locked to a specific x86 core. Right now big web companies like Google and Facebook are designing and building their own gear but soon they may want to have a few chip designers on hand as well.

これらのトレンドが、Web スケール・カンパニーにおけるワークロードに対応する、カスタム CPU コアを作成しようという議論を推進している。 つまり、x86 コアにロックされてきた、インターコネクト・ファブリックとメモリ・マネージメントの世界への、スタートアップたちによる侵入を許容しようとしているのだ。そして、いま、Google や Facebook といった巨大な Web カンパニーは独自のギアを設計/構築しているが、それほどの時間を待つことなく、チップ・デザイナーも手中に収めたいと考えるだろう。

With ARM custom server chips are cheaper and faster

Facebook’s Open Compute
technologies on a rack.

Andrew Feldman, GM and corporate VP at AMD, explained this idea in a series of conversations with me over the last few weeks in which he estimated that one could build an entirely custom chip using the ARM architecture in about 18 months for about $30 million. He compared this to the three or four-year time frame and $300 million to $400 million in development costs required to build an x86-based server chip.

AMD の GM and Corporate VP である Andrew Feldman は、この数週における私との会話の中で、いくつかの考えを説明してくれた。そのときに、彼は、ARM アーキテクチャを用いる完全なカスタムチップの構築が、約18ヶ月の時間と、$30 million のコストで実現されると推定していた。そして、x86 ベースのサーバーチップを構築するためには、3年~4年のタイムフレームと、$300 million ~ $400 million のコストが必要になるとも比較していた。

He wrote in an email:

This vast change in the cost and time to market opens the door for large CPU consumers (mega data center players) to collaborate with ARM CPU vendors–say by paying part of the cost of development– in return for including custom IP that advantages the Mega Data center owners software/offering. There are conversations underway on this topic with nearly every major megadata center player in the world. The mega data center owners are building warehouse scale computers. It is not surprising that they have ideas on custom IP that would advantage their own software and would like that IP embedded into a CPU — ARM makes this feasible by bringing down the cost and development time of CPU creation.

この、立ち上げまでのコストと時間における大きな変化により、大規模な CPU 消費者(メガ・データセンター)が開発コストの一部を支払うことで、ARM CPU ベンダーとの協業のドアが開かれるだろう。そして、見返りとして、メガ・データセンターの所有者たちは、ソフトウェアと提供物に先進性をもたらす、カスタムな IP を得ていく。ほぼ、すべての、世界のメガ・データセンター・プレーヤーたちが、このトピックに関連して、なんらかのビジネスを進めているはずだ。つまり、メガ・データセンターの所有者は、倉庫のような規模のコンピュータを構築しようとしている。彼らが、自身のソフトウェアにおけるアドバンテージとして、カスタムな IP のアイデアを有し、それの IP を CPU に組み込もうとしていても、さほど驚くべきことではない。  ARM は、CPU 開発におけるコストと時間を抑制することで、それを可能にするのだ。

This is a deeper component to Feldman’s talk at Structure about how the shifts in personal computing habits from PCs to less powerful mobile phones and tablets has changed the infrastructure needs of web companies that do most of the computing in the cloud for these devices.

それは、Structure で Feldman が説明した、奥行きのある構成要素に関するものだ。つまり、PC から、それほどパワフルではないモバイルやタブレットへと向けた、パーソナル・コンピューティングにおける傾向の変化が、それらのデバイスのためのクラウド・コンピューティングを提供する、大半の Web カンパニーのインフラ・ニーズをシフトさせるというものである。

Yet custom chips aren’t limited to improving the computing economics at webscale vendors. Feldman said there is a company using custom-made chips on boards to mine Bitcoins, a rumor I had heard at our Structure event, but couldn’t confirm. I’m not sure if the custom-chips are using ARM cores however.

しかし、カスタムチップにおける経済性の向上は、Web スケール・ベンダーのコンピューティングに限定されるものではない。Feldman は、Bitcoins をマイニングするボード上で、カスタム・メイドのチップを使用した企業があるとも発言していた。そのウワサは、私たちも Structure イベントで聞いたが、実態を確認することはできなかった。また、そのカスタム・チップが ARM コアを使用しているのかどうかも分からなかった。

The point however is the same. Building a custom-chip that can efficiently mine Bitcoins is totally worth the cost of building such a processor.

しかし、視点は同じである。 つまり、Bitcoins を効率的にマイニングするカスタム·チップには、そのようなプロセッサを構築するコストに見合うだけの、価値が含まれるという事例である。

But wait, there’s more!

So the Facebooks, Amazons and Googles of the world may soon make their own chips so they can take full control of their computing economics. It may already be happening: Back in 2010 Google bought a company called Agnilux that reportedly was trying to build a power efficient server chip, and details about what Google did with that company are scant. Maybe it’s designing its own server silicon already, much like Apple designs its own iPhone and iPad processors.

したがって、世界における Facebook/Amazon/Google の人々は、ただちに自身のチップを作成することで、自身のコンピューティング経済を完全にコントロールできるだろう。すでに、それが生じている可能性もあル。  話は 2010年に戻るが、Google が買収した Agnilux は、電力効率の良いサーバーチップを構築する会社だった。しかし、Google が Agnilux を使って、何をしたかのかという情報は乏しい。おそらく、Apple が iPhone と iPad の独自プロセッサをデザインしたように、独自のサーバー・チップをデザインしているのかもしれない。

But the use of ARM cores for the CPU also means that there’s a secondary effect for startups and webscale vendors. Today’s CPUs are generally composed of the CPU core and all the related IP associated with how the CPU gets and sends bits; things like I/O, memory controllers, PCI Express interconnects and other elements that most people don’t ever think about are also on a typical x86 chip. Feldman calls these other elements Bucket 2 (the core is Bucket 1).

しかし、CPU のための ARM コアの活用により、スタートアップや Web スケール・ベンダーにとって、二次的な効果も生じることになる。今日の一般的な CPU は、CPU のコアと、CPU に関連する IP(ビットの送受信や、I/O という発想、メモリ・コントローラ、PCI Express 相互接続など)で構成されている。そして、大半の人々は、それらの IP が、一般的な x86 チップにも存在しているとは考えていない。Feldman は、それら一連の要素を Bucket 2 と呼んでいる(Bucket 1 は CPU コア)。

He wrote:

Because Intel and AMD were the only x86 game in town we each developed our own cores (Bucket 1) and each developed our Bucket 2 items as well. There has no been ecosystem, and little innovation in Bucket 2. We have limped along with incremental improvements from one generation to the next. It hasn’t made sense to start a company to do an on-chip fabric (to more intelligently tie cores together), or a better memory controller, or an application accelerator, because you only have two prospective customers, Intel and AMD both working on competitive projects. (Who wants to start a company with 2 potential customers?)

マーケットで競合する x86 は、Intel と AMD だけから提供されているため、それぞれが自身のコア(Bucket 1)を開発し、また、自身の Bucket 2 も開発している。したがって、そこにはエコシステムが不在であり、また、Bucket 2 には、わずかなイノベーションがあるのみである。つまり、私たちは、ある世代から次の世代へと、インクリメンタルな改善を引きずっているだけだ。したがって、このような形態は、オンチップ·ファブリック(よりインテリジェントなコア間接続)や、より効率の良いメモリ·コントローラ、そして、アプリケーション・アクセラレータを実現する、新たな企業を立ち上げるという意味で理にかなっていない。なぜなら、それらのスタートアップから見ると、Intel と AMD という競争力のあるプロジェクトを抱える、2つの潜在顧客しか存在しないからだ(そのような狭い市場で、誰が起業したいと思うだろう?)。

But in the ARM world things are different. Because any number of players can license an ARM core, each one is looking for points of differentiation outside the core (some with architecture licenses are looking to tweak the core itself) and can make chips with better I/O or specific workload accelerators. An example here is Calxeda, which is using an ARM core in highly dense servers but has also built a custom interconnect to send information rapidly between its hundreds of ARM cores.

しかし、ARM の世界は、それとは異なる世界である。何人かのプレイヤーが、ARM コアのライセンスを取得できるため、それぞれがコアの外側で、差別化のためのポイントを探すことになり(アーキテクチャ・ライセンスを持つプライヤーは、コア自体もの手を加えようとしている)、また、さらに効率の良い I/O や、特定のワークロードのためのアクセラレータをもつ、チップを作成することが可能である。事例としては、ARM コアを高密度サーバに用いる Calxeda が挙げられるが、そこれは、何百という ARM コアの間で、情報を迅速に送信するための、カスタム相互接続も構築されている。

So when the mega data centers look at the opportunities presented by ARM, it’s not as simple as buying a piece of silicon from Marvell or Applied Micro, or a Calxeda box from HP. According to Feldman, web giants are looking at co-developing ARM-based chips that will take advantage of the greater levels of customization offered outside of the CPU so they can optimize for their own applications’ needs.

したがって、メガ・データセンターでは、ARM から提示される機会に注目するのだが、 Marvell や Applied Micro からシリコンの断片を買うように、また、HP から Calxeda ボックスを買うように、シンプルなものではなくなってきている。Feldman によると、Web の巨人たちは、ARM ベース・チップの共同開発に注目している。それにより、CPU の外側で提供される、ハイレベルなカスタマイズを活用し、個々のアプリケーションのニーズに合わせた最適化を実現しようとしている。

This is a huge shift for the industry with big implications from players as diverse as Intel, the server makers and corporate IT buyers who suddenly may face higher cost computing than the web and cloud giants — making the move toward outsourcing IT more practical.

それは、Intel や サーバーメーカー、そして 企業の IT 購買が作り上げてきたものと同じくらいの、多様性を持ったプレーヤーたちが提供する、大きな意味を用いた業界の巨大シフトとなっていく。そして、従来からの構造を引きずる者たちは突如として、Web と Cloud の巨人たちと比較して、高額なコンピューティング・コストに直面する可能性を持つだろう。つまり、より実用的な IT アウトソーシングへ向けた移行がもたらされるのだ。

Related research

ーーーーー

image23データセンター用のカスタム・チップって、イイですね! 以前にポストした、『 OCP Summit 2013 キーノート : モノリスを破壊する! 』という抄訳では、Facebook の Frank Frankovsky さんが、ーーー すべてにおいて、最もエキサイティングなのは一連の新規開発であり、これまでのテクノロジーをさらに有効利用していくための、大きなステップを与えてくれる。 1つの産業として、私たちが直面する課題は、そこで構築/消費されていくハードウェアが、きわめてモノリシックでであるという点だ。つまり、私たちのプロセッサは、私たちのマザーボードと不可分であり、さらに言えば、特定のネットワーク・テクノロジーなどとも不可分である。こうした硬直した関係で、すべてが構成されているのだ。 そのため、急速に進化するソフトウェアに追いつくことの出来ないコンフィグレーションが、不完全なシステムへと導かれ、たくさんのエネルギーとマテリアルを浪費してしまう。ーーー と語っています。こうした懸念が、CPU レベルから払拭されていくのかもしれませんね。image

ーーーーー

<関連>

Open Compute 台湾 が 立ち上がった!
Open Compute について、知っておくべき 10 の事柄
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
OCP データセンターと、高温多湿気候との関係について
無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner 2012 Q4

無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner レポート 2012 Q4

Posted in .Selected, Data Center Trends, Open Compute, Research by Agile Cat on March 4, 2013

‘Other’ server brands show strong growth thanks to webscale companies
http://wp.me/pwo1E-5Iy

By
Jordan Novet – Mar. 1, 2013
http://gigaom.com/2013/03/01/other-server-brands-show-strong-growth-thanks-to-webscale-companies/

_ Gigaom
Summary: Lesser known server makers reported bigger revenue growth for another quarter, as Facebook and other webscale companies keep buying custom servers.

Summary: Facebook などの Web スケール企業が、カスタムなサーバーを購入し続けていることで、それほど有名ではないサーバー・メーカーたちが、2012年 Q4 も売上を積み上げているというレポートがある。

Open Compute Project

No-name server makers posted stronger year-to-year revenue growth than traditional powers such as Hewlett-Packard and IBM in the fourth quarter of 2012, according to new Gartner data. The news, which falls in line with a trend going back to the third quarter of 2011, makes sense as webscale companies — Google, Facebook, etc. — demand inexpensive but custom-tailored servers for their data centers.

Gartner の新しいデータによると、それらの無名のサーバー・メーカーたちは 2012年 Q4 の売上において、Hewlett-Packard や IBM といった伝統的なブランドを、前年比で上回る数字をたたき出している。 このニュースは、2011年 Q3 からのトレンドに沿ったものであり、Google や Facebook などの Web スケール企業のデータセンターに、カスタム仕様のサーバーが低額で導入され始めたことと、つじつまが合っている。

According to Gartner, the “other vendors” increased revenue almost 22 percent year over year for the quarter, beating out Dell, Fujitsu, HP, IBM and Oracle. HP, a perennial leader in servers, saw its worldwide server revenue decline 3.3 percent during the same period, while Oracle’s dropped 18 percent.

Gartner によると、いわゆる Other Vendor たちは 2012年 Q4 の前年比較で、約 22% の成長を遂げており、Dell/Fujitsu/HP/IBM/Oracle などを打ち負かしている。 長年にわたりサーバー界をリードしている HP は、この期間のワールドワイド市場で 3.3% を下げているが、Oracle にいたっては 18% も下げている。

image“Application-as-a-business data centers such as Baidu, Facebook and Google were the real drivers of significant volume growth for the year,” Gartner Research Vice President Jeffrey Hewitt said in a statement.

「 Baidu や、Facebook、Google といった Application-as-a-Business データセンターは、昨年の総出荷量を構成する、ほんとうの意味での牽引力を発揮した」と、Gartner の Research Vice President である Jeffrey Hewitt は発言している。

HP and Dell lost some business from cloud and hosting provider Rackspace, which turned to Quanta and Wistron for custom servers based on Open Compute Project designs. Quanta also captured business from Amazon and Facebook.

Open Compute Project ベースのカスタム・サーバーが、ホスティングとクラウドのプロバイダーである Rechspace に対して、Quanta と Wistron から提供されたことで、HPと Dell は一定のビジネスを失った。 そして、Quanta は、Amazon と Facebook からビジネスを獲得している。

The Chinese search giant Baidu, which might be planning the world’s largest data center, with 100,000 servers, is reportedly giving its server business to Marvell Technologies.

中国のサーチ・ジャイアントである Baido は、100,000 台のサーバーを収容する、世界最大のデータセンターを設計しているようだ。 そして、伝えられるところによると、Marvell Technologies が、そこでのサーバー・ビジネスを獲得するらしい。

If the trend continues, and smaller server makers such as Quanta keep gaining ground, Gartner might want to start breaking out the “other vendors” in its reports.

もし、このトレンドが継続するなら、Quanta のような小規模サーバーメーカーが躍進するだろう。 そして Gartner も、Other Vendor たちを分析する、新たなレポートを企画するかもしれない。

Related research

ーーーーー

TAG indexOpen Compute Project 応援団である、Agile_Cat としては、とても嬉しい結果です。サーバー市場におけるシェアとしても、すでに 18.3% に達し、Dell を凌ぐところまで成長しています。ちょうど 明日(3/5)ですが、Open Compute の Asia Pacific @ Hong Kong ミーティングが開催され、Japan からも @fhide さんがキーノート・スピーカーとして参加します Smile  サーバーとデータセンターのレイヤを、競合から協調へ変えていこうとする、この Open Compute には、ぜひ、頑張ってもらいたいと思います。image

ーーーーー

<関連>

最新Intel と Facebook が実現する、100 Gbps でラックを貫く光学素材とは?
OCP Summit 2013 キーノート : モノリスを破壊する!

Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
Open Compute Summit 2013 : エコロジーと Asia Pacific
Open Compute Japan の FB ページが始まりました!
Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり

OCP Summit 2013 キーノート : モノリスを破壊する!

Posted in .Chronicle, .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 14, 2013

OCP Summit IV: Breaking Up the Monolith
http://wp.me/pwo1E-5EX

Wednesday, January 16, 2013 · Posted by
Frank Frankovsky at 10:00 AM
http://www.opencompute.org/2013/01/16/ocp-summit-iv-breaking-up-the-monolith/

image

It’s hard to believe that the Open Compute Project was founded just a little over 18 months ago. At our first Summit, in June 2011, we had 200 participants, one official member (Facebook), and exactly three technology contributions (all from Facebook). Today, as nearly 2,000 people converge on Santa Clara to kick off the fourth OCP Summit, we have more than 50 official members and dozens of contributions from a wide variety of technology suppliers and consumers.

Open Compute Project が設立されてから、まだ 18ヶ月しか経っていないとは、信じがたい思いである。 2011年6月に開かれた最初のサミットには 200人が参加し、また、1人のオフィシャル・メンバー(Facebook)だけがいて、3つテクノロジー・コントリビューションだけがあった(すべてが Facebook から)。 そして、今日、4回目の OCP Summit をキックオフするために、約 2000人の人々が Santa Clara に押し寄せたように、私たちには 50のオフィシャル・メンバーがいて、多様なテクノロジー・プロバイダーとコンシューマから提供される、数多くのコントリビューションがある。

In October 2011 we announced the formation of a non-profit foundation to steer the project, and that organization has continued to evolve. In the last six months we’ve hired our first full-time employee, COO Cole Crawford, and added a new Compliance & Interoperability project. We’ve also seen our first international expansion, with the launch of an OCP Asia-Pacific chapter in Tokyo, and some encouraging engagement with the academic and research communities — including a Purdue University competition to design a biodegradable server chassis.

そして 2011年10月に、このプロジェクトを運営する非営利ファンデーションの立ち上げを発表したが、この組織は、いまもなお、発展し続けている。直近の 6ヶ月間において、私たちは初めてのフルタイム従業員であある Cole Crawford に、COO を務めてもらうようになり、また、新しいプロジェクトとして Compliance & Interoperability を加えた。 そして Tokyo では、OCP Asia-Pacific 支部の立ち上げという、初めてのインターナショナルな展開を確認している。 さらに、アカデミックおよび研究コミュニティとの連携という、力強い展開が生まれている。そこには、生分解性があるサーバー・シャーシを、初めて設計するという、Purdue University におけるコンペティションも含まれている。

We’ve also seen some tremendous engagement in the broader OCP community in the last six months. Some examples include:

そして、この 6ヶ月間では、OCP コミュニティの各所において、とても多くの協調が生じてきた。 以下は、その、いくつかの例である:

  • New members: More than a dozen new organizations have joined, including storage companies like EMC, Fusion-io, Hitachi, and Sandisk; microprocessor organizations like Applied Micro, ARM, Calxeda, and Tilera; and communications companies like NTT Data and Orange.
  • Adoption of open source hardware: More companies are being inspired to think differently about how they build out their infrastructures. Examples include Riot Games, which has decided to purchase systems based on OCP designs and built by Hyve Solutions, and Rackspace, which has decided to design and build its own infrastructure using OCP designs as a starting point.
  • Momentum around Open Vault and Open Rack: We launched these two projects at the third OCP Summit in May 2012, and we’re already seeing companies iterating on them in interesting ways and developing creative new technologies to complement them. Examples include new Open Rack designs from Avnet, Delta, Emerson, and Sanmina (many of which are being demonstrated at today’s Summit) and new server designs for the SAS expander slot on the Open Vault spec from Calxeda and Intel.
  • Products being delivered: Also at the May 2012 Summit, AMD and Intel announced that they’d been collaborating with Fidelity and Goldman Sachs to develop new boards to suit those companies’ specific workloads — codenamed Roadrunner and Decathlete, respectively. Just seven months later, both companies are here today demonstrating finished products.
  • New technology contributions: We’re starting to see significant momentum building behind technology contributions to the project. Some of the new contributions include designs for Fusion-io’s new 3.2TB ioScale card; the designs Rackspace has created for its new infrastructure; and designs for a new storage box that Hyve Solutions built for Open Rack. Facebook is also making a few new contributions, including modifications to Open Rack and Open Vault for use in cold-storage environments and designs for a new, all-flash database server (codenamed Dragonstone) and the latest version of its web server (codenamed Winterfell).
  • New members: 新しいメンバーとして、10社以上の組織が参加してきた。 そこには、EMC/Fusion-io/Hitachi/Sandisk などのストレージ・メーカーや、Applied Micro/ARM/Calxeda/Tilera などのマイクロ・プロセッサ・メーカー、そして NTT Data/Orange などのテレコム企業が含まれる。
  • Adoption of open source hardware:インフラストラクチャを構築していくための、これまでとは異なる方式により、数多くの企業がインスパイヤーされている。 Riot Games 場合は、Hyve Solutions が構築した、OCP デザインに基づくシステムの購入を決定した。また、Rackspace の場合は、OCP デザインを出発点とし活用する、独自のインフラを設/構築することに決めた。
  • Momentum around Open Vault and Open Rack: 2012年 5月に開催された、3回目の OCP Summit において、以下の 2つのプロジェクトが立ち上がった。 そして、すでに、それらを補完するために、複数の企業がきわめて興味深い方式で、創造的なニュー・テクノロジーを継続して開発している。たとえば、Open Rack デザインは、Avnet/Delta/Emerson/Sanmina により進められ、その多くが、今日の Summit でデモされる。 また、Open Vault 仕様の SAS エクスパンダー・スロットに対応する、新しいサーバー・デザインが、Calxeda/Intel により進められている。
  • Products being delivered: 同じく 2012年5月のサミットで AMD と Intel は、Fidelity および Goldman Sachs と協調することで、それぞれのワークロードに適した、新しいボードを開発すると発表した。AMD と Intel のボードは、Roadrunner と Decathlete とうコードネームを付けられている。そこから、わずか 7ヶ月が過ぎただけだが、両社とも最終的なプロダクトを、この Summit でデモする。
  • New technology contributions: このプロジェクトに対する、テクノロジー・コントリビューションの背後に、大きな勢いが構成されていることを、私たちは確認し始めている。いくつかの、新しいコントリビューションには、Fusion-io が提供する新しい 3.2 TB ioScale カードや、Rackspace による新しいインフラのデザイン、そして、Hyve Solutions が Open Rack のために構築した新しいストレージ・ボックスなどが含まれる。 Facebook も、いくつかのコントリビューションを、新たに行なっている。そこには、コールド・ストレージ環境で用いる、Open Rack と Open Vault に関するモディフィケーションや、まったく新しくデザインされたデータベース・サーバー(コードネーム Dragonstone)、そして、Web サーバーのための最新デザインなどが含まれる(コードネーム Winterfell)。

But most exciting of all are a series of new developments that will enable us to take some big steps forward toward better utilization of these technologies. One of the challenges we face as an industry is that much of the hardware we build and consume is highly monolithic — our processors are inextricably linked to our motherboards, which are in turn linked to specific networking technology, and so on. This leads to poorly configured systems that can’t keep up with rapidly evolving software and waste lots of energy and material.

しかし、すべてにおいて、最もエキサイティングなのは一連の新規開発であり、これまでのテクノロジーをさらに有効利用していくための、大きなステップを与えてくれる。 1つの産業として、私たちが直面する課題は、そこで構築/消費されていくハードウェアが、きわめてモノリシックでであるという点だ。つまり、私たちのプロセッサは、私たちのマザーボードと不可分であり、さらに言えば、特定のネットワーク・テクノロジーなどとも不可分である。こうした硬直した関係で、すべてが構成されているのだ。 そのため、急速に進化するソフトウェアに追いつくことの出来ないコンフィグレーションが、不完全なシステムへと導かれ、たくさんのエネルギーとマテリアルを浪費してしまう。

To fix this, we need to break up some of these monolithic designs — to disaggregate some of the components of these technologies from each other so we can build systems that truly fit the workloads they run and whose components can be replaced or updated independently of each other. Several members of the Open Compute Project have come together today to take the first steps toward this kind of disaggregation:

こうした問題を解消するためには、いくつかのモノリシックなデザインの破壊する必要がある。つまり、それらのテクノロジーを構成するコンポーネントを、相互に干渉しないかたちに分解していくのだ。そうすれば、それぞれのシステムで実行されるワークロードに、完全にフィットしたものを構築できる。 さらに言えば、それぞれのコンポーネントの、置き換えや更新も自由に行える。今日、ここに集まった Open Compute Project のメンバーは、この種の分解へ向けた、最初のステップを取っていくことになる:

  • Silicon photonics: Intel is contributing designs for its forthcoming silicon photonics technology, which will enable 100 Gbps interconnects — enough bandwidth to serve multiple processor generations. This technology also has such low latency that we can take components that previously needed to be bound to the same motherboard and begin to spread them out within a rack.
  • “Group Hug” board: Facebook is contributing a new common slot architecture specification for motherboards. This specification — which we’ve nicknamed “Group Hug” — can be used to produce boards that are completely vendor-neutral and will last through multiple processor generations. The specification uses a simple PCIe x8 connector to link the SOCs to the board.
  • New SOCs: AMD, Applied Micro, Calxeda, and Intel have all announced support for the Group Hug board, and Applied Micro and Intel have already built mechanical demos of their new designs.
  • Silicon photonics: Intel がコントリビュートしているのは、100 Gbps のインタラクションを可能にする、次世代の光学通信テクノロジーである。それにより、来るべきマルチ・プロセッサ時代においても、充分な帯域幅を確保できる。 また、このテクノロジーがあれば、従来では同じマザーボード上に配置する必要のあった、各種のコンポーネントをラック内に展開しても、低レイテンシを維持することが可能になる。
  • “Group Hug” board: Facebook がコントリビュートするのは、いくつかのマザーボードのための、新たな共通スロット・アーキテクチャの仕様である。この仕様は(Group Hug というニックネームを付けた)、完全にベンダー・ニュートラルな、ボードを作るために用いられ、また、マルチ・プロセッサの時代を通じて生き続けるだろう。 この仕様は、シンプルな PCIe  x8 コネクタを用い、それにより、SOC とボードをリンクさせる。
  • New SOCs: AMD/Applied Micro/Calxeda/Intel が、Group Hug ボードのサポートを発表した。 そして、すでに Applied Micro と Intel は、それぞれの新デザインの、メカニカル・デモを作成している。

Taken together, these announcements will enable data center operators to build systems that better fit the workloads they need to run and to upgrade through multiple generations of processors without having to replace the motherboards or the in-rack networking. This should in turn enable real gains in utilization and unlock even more efficiencies in data center construction and operations.

全体的な話になるが、これらの一連の発表により、データセンター・オペレーターたちは、実行すべきワークロードに適した、システムの構築を可能にするだろう。もちろん、それらのシステムは、マザーボードやラック内ネットワークを置き換える必要もなく、複数のプロセッサ世代をまたいでアップグレードしていける。 その次に来るのは、データセンターの構築/運用において、有用性とアンロックという観点から生じる現実的な利益であり、さらには、効率も改善されるはずである。

There’s a lot of work left to do here, but it’s never been more important for us to take these steps. As our lives become more connected, and as more devices and applications generate more data, we will face compute and storage challenges that existing technologies cannot handle efficiently.

そこには、置き去りにされてしまう、さまざまな仕事があるが、これらのステップを取っていく私たちにとって、重要ではなかったということだ。 いま以上に、私たちの生活がコネクトされるにつれて、さらには、より多くのデバイスとアプリケーションが、より多くのデータを生成するにつれて、これまでのテクノロジーでは効果的にハンドリング出来なかった、コンピュートとストレージの課題に、私たちは挑むことになる。

But we have one big advantage, as we face these challenges: We are doing this work together, in the open, and everyone has a chance to contribute — to help ensure that all the technologies we develop and consume are as scalable as possible, as efficient as possible, and as innovative as possible.

しかし、これらの手強い課題に直面するとき、私たちには大きなアドバンテージがある。 まず、私たちは協調している。 そして、オープンである。さらに言えば、誰にでもコントリビューションのチャンスがある。 それにより、私たちが開発する全テクノロジーが、可能な限りスケーラブルなかたちで消費され、可能な限りの効率を持ち、可能な限り革新的であることが、保証されていくのだ。

ーーーーー

TAG indexFrank Frankovsky さんのキーノートは、いつも淡々と、しかし、力強く展開していきます。 そして、このポストのように、派手な修飾語などは一切使わず、論理でグイグイと押してきます。 それは、彼にかぎらず、OCP のチーム全体に言えることであり、一瞬もブレることなく、オープンなインフラストラクチャの実現へ向けて、突き進んでいるように思えます。 さぁ、Japan が始まり、Asia Pacific が始まります。ご興味のあるかたは、OCP Japan 事務局まで お問い合わせください。 Image(70)

ーーーーー

<関連>

Open Compute Japan の FB ページが始まりました!
Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
Open Compute Summit 2013 : エコロジーと Asia Pacific
Open Compute Summit 2013 – Directory
Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり

 

Open Compute Japan の FB ページが始まりました!

Posted in .Chronicle, .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 9, 2013

2010年 4月から 現在までを、Timeline で ど~ぞ
http://wp.me/pwo1E-5Dq

image

2013年 1月 16日(日本では17日)にスタートした、Open Compute Asia Pacific ですが、その Facebook ページも、ようやく本格的に動き出すことになりました。 Japan ではなく Asia Pacific なの? ・・・という件ですが、Asia の中の Japan という位置づけで、この際、細かい話は、どちらでも構わないというのが、本家と分家の合意のようです Smile

そして、本題の Facebook ページですが、2010年 4月からの Timeline として構成され、これまでの Open Compute Project の動きと流れが、一目で分かるようになっています。 すべてが日本語ではないというか、大半が英語なのですが、ときおり登場する翻訳ポストを拾い読みしてみてください。 それだけで、Open Compute の素晴らしい理想と、重要性と、そして力強さを、分かってもらえると思っています。

↓ クリックで Facebook ページヘ ↓

image

↑ よろしければ イイネ を・・・↑

この Open Compute Timeline の、一番末尾の方に、つまり、2010年 4月のポストにですが、こんな一文を見つけました。

The ultimate goal of the Open Compute Project, however, is to spark a collaborative dialogue. We’re already talking with our peers about how we can work together on Open Compute Project technology. We want to recruit others to be part of this collaboration — and we invite you to join us in this mission to collectively develop the most efficient computing infrastructure possible.

Open Compute Project における究極のゴールは、コラボレーションのための会話を引き起こす点にある。私たちは、すでに同業者との対話を開始しており、Open Compute Project テクノロジー上での協調を模索している。私たちは、より多くの人々を、このコラボレーションの中に加えていきたい。そして、最も効率の良いコンピューティング・インフラストラクチャを、共同で開発していくというミッションに、あなたにも加わって欲しいと願っている。

ーーーーー

TAG indexコンピューティング・インフラストラクチャに関する議論が、ほんとうに必要であり、そこを無益な競合を繰り返してはいけないという、強い思いが伝わってきますね。 この Open Compute Project が立ち上がったときに、『 電力事情も含めた地球環境を考えれば、インフラストラクチャは協調のレイヤとなるべきであり、その上位に競合のレイヤが構成されるべきだ 』という、Mark Zuckerberg の発言がありました。それから 2年も待たずに、多くの支持を集め、これだけの勢いを持った OCP は、やはり理に適っているのですね。image

ーーーーー

<関連>

Open Compute Summit 2013 – Directory
Open Compute Summit 2013 : エコロジーと Asia Pacific
Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
Facebook は Open Compute を、コ・ロケーションにも適用する

Facebook と Open Compute は、$55B のサーバー市場を解体/再生する

Posted in .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 5, 2013

Facebook and Open Compute just blew up the server and disrupted a $55B market
http://wp.me/pwo1E-5CM

Jan 16,2013 – By
Stacey Higginbotham
http://gigaom.com/2013/01/16/facebook-and-open-compute-just-blew-up-the-server-and-disrupted-a-55b-market/

_ Gigaom

photo: Stacey Higginbotham

Summary: Facebook took aim at the hardware business back in April 2011 with the launch of the Open Compute open hardware program, and Wednesday it fired the killing blow at the $55 billion server business.

Facebook は 2011年4月の時点で、オープンなハードウェア・プログラムである Open Compute を立ち上げたときから、ハードウェア・ビジネスをターゲットにしている。 そして、この水曜日(1/16)には、$55 billion のサーバー・ビジネスに、致命的な打撃を与えるところまで進んできた。

ーーーーー

The launch of two new features into the Open Compute hardware specifications on Wednesday has managed to do what Facebook has been threatening to do since it began building its vanity-free hardware back in 2010. The company has blown up the server — reducing it to interchangeable components.

Open Compute ハードウェア仕様に取り込まれた2つの新しい機能により、2010年に Facebook が質素なハードウェアを作り始めたときから、脅威とされてきたものが推進されていく。同社は、サーバーの概念を拡大し、交換可能なコンポーネントに変形してしまったのだ。

With this step it has disrupted the hardware business from the chips all the way up to the switches. It has also killed the server business, which IDC estimates will bring in $55 billion in revenue for 2012.

このステップにより、チップからスイッチにまで至る、ハードウェア・ビジネスが崩壊する。つまり、IDC が 2012年で $55 billion の収益があると推測する、サーバー・ビジネスが死に至るのである。

It’s something I said would happen the day Facebook launched the Open Compute project back in April 2011, and which we covered again at our Structure event last June when we talked to Frank Frankovsky, VP of hardware and design at Facebook. What Facebook and others have managed to do — in a relatively short amount of time by hardware standards — is create a platform for innovation in hardware and for the data center that will allow companies to scale to the needs of the internet, but also to do so in something closer to web-time. It will do this in a way that creates less waste, more efficient computing and more opportunity for innovation.

それは、2011年4月 の時点で Facebook が、Open Compute プロジェクトを立ち上げた日に、これから起こるであろうと予測した何かであり、また。昨年6月の Structure イベントでも、Facebook の VP of Hardware and Design である Frank Frankovsky が、話したてくれたものである。Facebook や他のメンバーたちが、何に成功したかというと、ハードウェアとデータセンターにおけるノベーションのためのプラットフォーム作りである(比較的に短い時間の中でハードウェアを標準化する)。つまり、それらの企業は、インターネットのスケールを達成するだけではなく、Web が進化していくスピードに合わせて、物事を処理していくだろう。それは、無駄を省き、コンピューティングの効率を高め、イノベーションの機会を増やすという、一連の流れの中で進められていく。

New features for a next-gen server

New Open Compute
technologies on a rack.

So what is Facebook doing? Facebook has contributed a consistent slot design for motherboards that will allow customers to use chips from any vendor. Until this point, if someone wanted to use AMD chips as opposed to Intel chips, they’d have to build a slightly different version of the server. With what Frankovsky called both “the equalizer” and the “group hug” slot, an IT user can pop in boards containing silicon from anyone. So far, companies including AMD, Intel, Calxeda and Applied Micro are committing to building products that will support that design.

そこでだが、Facebook は何をしているのだろう? Facebook がコントリビュートしている、マザーボードのための一貫したスロット・デザインにより、そのユーザーたちは、あらゆるベンダーから供給されるチップを、利用できるようになる。 これまでの常識は、Intel チップに替えて AMD チップを使いたいなら、それに合わせて、少し異なるサーバーを構築する必要があったはずだ。 Frankovsky が 『 the equalizer 』および『 group hug 』と呼ぶスロットを用いれば、シリコン・チップを搭載した各種のボードが、あらゆる IT ユーザーにより簡単に実装される。 これまでのところ、AMD/Intel/Calxeda/Applied Micro などの企業が、このデザインをサポートするためのプロダクト構築をコミットしている。

The other innovation that’s worth noting on the Open Compute standard is that Intel plans to announce a super-fast networking connection based on fiber optics that will allow data to travel between the chips in a rack. This 100 gigabit Ethernet photonic connector is something Intel plans to announce later this year, and Frankovsky can’t wait to get it into production in Facebook’s data centers.

Open Compute スタンダードにおいて、指摘しておく価値のある他のイノベーションとしては、Intel が発表した超高速ネットワーク・コネクションが挙げられる。 それは、光学ファイバーをベースとし、チップ間でのデータ転送を、ラック内で実現していくものとなる。 この、100 GBit イーサネット光学コネクタは、昨年の後半に Intel が発表した計画の一部であるが、Frankovsky は Facebook データセンターのプロダクション・システムで、躊躇することなくそれを利用したいようだ。

I’ve written a lot about how we need to get faster, fiber-based interconnects inside the data center, and the efforts to do so. What’s significant here is not just that this design speeds up chip-to-chip communication. With the right hardware, it runs a rack into a server and makes the idea of a top-of-rack switch irrelevant –something that that Cisco, Juniper and Arista might worry about (although Arista’s Andy Bechtolsheim is helping present this technology at Open Compute, so I imagine he has a plan). It’s also worth noting that only in 2012 did Facebook transition to an all 10 gigabit Ethernet network in its data centers, but now it wants to speed up the interconnects as soon as it can.

機会があるごとに、私が書き続けてきた主張は、データセンター内における高速相互接続の重要性であり、それをファイバー・ベースで推進していく必要性である。そして、このデザインにより、チップ間での高速通信が実現するという点に、限定して考えないことが重要である。 適切なハードウェアを用いることで、サーバー内でラックを走らせるようなアイデアが成り立ち、ラックのトップに配置されるスイッチを無意味なものにしてしまう。Cisco や Juniper、そして Arista には気分を害してほしくないが、そういうことだ。(ただし、Arista の Andy Bechtolsheim は、このテクノロジーの正しさについて Open Compute で後押ししていた。 したがって、何らかのプランを持っていると推測する)。さらに、2012年の時点において Facebook だけが、データセンター内での Ethernet ネットワークを、すべて 10 GBit に移行していることも、指摘すべき価値を持つだろう。しかし、同社は、可能な限り早期に、相互接続の高速化に取り組みたいようだ。

Openness makes the new servers flexible

So what has happened here is significant. Open Compute has managed to give customers — from financial services firms to web properties — a platform on which to build custom and modular servers.

したがって、いま、ここで起こっていることは重要である。 Open Compute は、カスタムでモジュラリティの高いサーバーを構築するためのプラットフォームを、金融から Web に至るまでの幅広い客層に対して提供することに成功した。

A good example of this might be building a house. There are plenty of ways of doing it, from hiring an architect to choosing a plan from a selection offered to you by a developer. That was the former server world — you either went all custom or chose from “plans” provided by Dell and others. But those chosen plans might come with four bathrooms and you might only want three. If you buy 10,000 unneeeded bathrooms, that’s a lot of added cost that brings you no value.

こうした考え方の、良い事例として、家を建てるという行為が挙げられるかもしれない。 そこには、建築士を雇うという選択から、デベロッパーが提供する多様なプランからの選択まで、それそ実現するための数多くの方式がある。そして、従前からのサーバー世界でも、すべてをカスタムなかたちで作るか、あるいは、Dell などから提供されるプランを選ぶという、2つの方式があったはずだ。しかし、あたなは 3つのバスルームが欲しいのだけど、そのプランには 4つのバスルームが組み入れられているかもしれない。もし、必要とされない 10,000のバスルームを購入するなら、価値をもたらさないものに、膨大なコストが生じることになる。

With Open Compute, Facebook showed people how to build houses out of shippping containers. As more and more elements like Group Hug or standard interconnects are added, it’s like you can pick your favorite brand of shipping container and pop it on. Even better, if you want a new bathroom, you can swap it out without ever affecting your bedroom. And for many companies the costs of building and operating these new servers will be less than the mass-produced boxes designed by others.

Open Compute により Facebook が示したことは、搬送用コンテナからパーツを取り出し、家を建てるための方式である。 Group Hug のような要素や、標準的な相互接続が、数多く加えられるにつれて、あなたの好みのブランドから取り寄せたものが、搬送用コンテナで送られてくるようになる。さらに良いことに、あなたがベッドルームに替えて、新しいバスルームを追加したいなら、その差し替えも簡単に行えるのだ。 そして、数多くの企業にとって、これらの新しいサーバーを構築/運用するためのコストは、他社により大量生産されたボックスよりも、安価なものになっていくだろう。

This is great for web-based businesses and anyone that relies on IT. It cuts out waste and it turns what was once a monolithic asset into something that can be upgraded with relative ease and at a lower cost. So when Frankovsky is talking about renting CPUs from Intel, for example, the Group Hug design makes that possible. He can rent CPUs for a workload, and then use those servers for something else without chucking them. He can swap out chip architectures, networking cards and drives at will to put the right mix of storage, network, and compute together for his jobs as they grow and shrink.

それは、Web ベースのビジネスや IT に携わる、あらゆる人々にとって素晴らしいものとなる。 まず、無駄が省かれる。 そして、かつてはモノリシックな資産であったものが、相対的に見て低コストであり、アップグレードが可能な何かに置き換わっていく。 したがって、仮に Frankovsky が Intel から、CPU を借り出そうと交渉するにして、Group Hug のデザインは、それを可能にするのだ。 彼は、あるワークロードのために CPU をレンタルし、それが終わっても放棄すること無く、他の目的を持ったサーバーのために活用できる。 彼は、チップ・アーキテクチャや、ネットワーク・カード、そして各種デバイスを入れ替えることができる。そして、自身の作業のライフサイクルに応じて、ストレージ/ネットワーク/コンピュータなどを、思いのままに、混ぜ合わせることができるのだ。

These servers can’t be provisioned as fast, but what Open Compute has done is create a server architecture that can scale and change as much as the cloud itself does. And it did so without the server guys.

これらのサーバーが、それほど早急に供給されることはないだろう。 しかし、Open Compute が行ったことは、スケールに対応し、また、クラウドの変化に追随し得る、サーバー・アーキテクチャの開発なのである。そして、サーバーの専門家を必要とせずに、それは推進されてきたのである。

Related research

ーーーーー

TAG index2012年 1月 16日・17日に開催された Open Compute Summit での、Stacey Higginbothamさんの取材記事です。 今回のテーマは『 Breaking Up the Monolith 』であり、その背景には、Open Compute に集まった幅広い支持層を取り込んで、よりパワフルなエコシステムを作っていこうという意図があります。その、Asia Pacific のカウンターパートとして、Open Compute Japan も立ち上がりました。 ハードウェア・ビジネスの解体と再生への動きは、もう止まらないところまで来ているようです。image

ーーーーー

<関連>

Open Compute Summit 2013 : エコロジーと Asia Pacific
Facebook は Open Compute を、コ・ロケーションにも適用する
Facebook 革命は、なにをハードウェア産業に強いるのか
Facebook の 巨大 DC を気化熱で冷やす、ミストの秘密について説明しよう
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?

%d bloggers like this: