Agile Cat — in the cloud

OCP データセンターと、高温多湿気候との関係について

Posted in .Selected, Data Center Trends, Energy, Facebook, Open Compute by Agile Cat on March 14, 2013

Cooling an OCP Data Center in a Hot and Humid Climate
http://wp.me/pwo1E-5Lx
November 14, 2012 · Posted by Daniel Lee
http://www.opencompute.org/2012/11/14/cooling-an-ocp-data-center-in-a-hot-and-humid-climate/

image

Building a data center based on Open Compute Project designs in a relatively hot and humid area like Forest City, North Carolina, presented some interesting challenges. Chief among them, of course, was whether the 100% outdoor air cooling system Facebook debuted in our Prineville, Oregon, facility could operate as efficiently in an environment where the ASHRAE 50-year maximum wet bulb temperature is 21% higher, at 84.5°F instead of 70.3°F.

Open Compute Project デザインに基づいたデータセンターを、Forest City, North Carolina のような、比較的に高温多湿なエリアに構築することは、いくつかの興味深い課題を提起する。 もちろん、その中で最たるものは、Prineville, Oregon で Facebook がデビューさせた 100% の外気冷却方式が、適用できるか、できないか、という点であった。 具体的な論点は、ASHRAE の 50年 最高湿球温度で比較すると、21% も高温な環境へと移行させることである。 つまり、70.3°F(21.3°C)の環境から、84.5°F(29.2°C )の環境へ移行しても、そのファシリティが運用できるかという点に集約される。

The design we use in Prineville works great in central Oregon – a high desert plain with hot, dry summers and cool evenings and winters. These are ideal conditions for using evaporative cooling and humidification systems, instead of the mechanical chillers used in more-conventional data center designs. And ASHRAE 50-year design weather maximums and bin weather data show that such a system is sufficient for even the hottest summer days in central Oregon.

私たちが Prineville で用いたデザインは、Oregon の中央に広がる大地の、熱くて乾燥した夏期と、冷込む夜間と冬期という気候の中で、すべてが順調に機能している。 そこは、数多くの従来型のデータセンター・デザインで使用される機械式のチラーに代えて、気化熱冷却と加湿システムを利用していくための、理想的なコンディションとなる。 そして、ASHRAE の 50年 気象測定結果と、Bin Weather Data が示すのは、Oregon 中央部であれば、こうしたシステムが、暑い夏の日であっても充分に機能する点である。

When we started looking at Forest City, the bin weather data suggested that refrigeration might not be required, but ASHRAE 50-year design weather maximums suggested otherwise. We ultimately decided to install a direct expansion (DX) coil system in the facility, just in case it might be needed, but it was important to us to find a way to make the free cooling system work — the potential efficiency gains to be found in keeping those DX units switched off were just too great to ignore.

私たちが Forest City に注目し始めたとき、Bin Weather Data は機械式の冷却が不要かもしれないとしたが、ASHRAE の 50年気象測定は別のことを示唆した。そして、最終的には、このファシリティに DX(Direct Expansion)コイル・システムをインストールすることに決めたが、その利用は必要とされるケースに限定される。つまり、自然冷却システムを機能させる方式を探し出すことが、私たちにとって重要だったのである。そして、潜在的な効率は、DX ユニットのスイッチを OFF にしておくことで見いだされるが、無視するには余りにも大きなものとなる。

↓ クリックで拡大 ↓

Psychrometric Chart: Bin weather data plotted on Rutherfordton (approx. 6 miles NW of Forest City) suggests that DX cooling is probably not necessary in a typical year; but ASHRAE MAX WB suggests the opposite.

湿度線図:Bin Weather Data による、Rutherfordton (approx. 6 miles NW of Forest City) のプロット・データが示唆するのは、一般的な年であれば、DX コイルが不要だろうというものだ。 しかし、 ASHRAE MAX WB は、正反対の結果を示唆する。

To try to make the free cooling system work in Forest City, we expanded the maximum allowable temperature and humidity conditions for our server environment. Because wet bulb temperatures are higher in western North Carolina than they are in central Oregon, we set the upper end of the server inlet temperature range at 85°F, instead of at 80°F. And because of the higher humidity in North Carolina, we expanded the relative humidity (RH) maximum from 65% RH to 90% RH.

Forest City に合った自然冷却のシステムを構築するために、私たちはサーバー環境における最大許容温度と湿度条件を拡大した。 つまり、North Carolina 西部での湿式温度が、Oregon 中央部より高いため、サーバー・インレットの上限を、80°F(26.7°C)から 85°(29.5°C)に設定し直したのだ。 そして、North Carolina の多湿な気候に合わせるために、相対湿度(RH)の上限値も、65% RH から 90% RH に拡大した。

Summer 2012 in the US presented an excellent test of the design. July 2012 was the second hottest month on record in North Carolina, in the third hottest summer ever documented in the continental US. At one point the dry bulb temperature topped 100°F outside the data center.

2012年のアメリカの夏は、このデザインにとって格好のテスト環境をもたらした。 2012年7月は、North Carolina の観測記録上、3番目に暑い夏であり、また、アメリカ本土に関して文書化された中では、2番目の猛暑を記録した。 この期間においては、データセンターの外側に設置された乾湿温度計が、100°F(37.8°C)を超えることもあった。

But despite the record-breaking dry bulb temperatures, we didn’t run the DX coils at all this past summer. If you look at the trend data, it shows that when the record hot days occurred, relative humidity was low, allowing the misting system to provide all the needed cooling. The chart for July 1 illustrates this.

しかし、この記録破りの乾湿温度にもかかわらず、この夏を通じて、DX コイルを動かすことはなかった。 以下の記録的な猛暑日の、データの推移を見れば分かってもらえるが、相対湿度が下がるため、ミスト・システムを稼働させて、必要とされる冷却効果を達成できている。 この、7月1日のチャートが、それを例証している。

↓ クリックで拡大 ↓

Outside Air DB Temperature: 07/01/12 was one of the hottest days of the summer, with a high of 102° F DB. But it didn’t require DX cooling, because the coincident humidity was 26% RH.

Outside Air DB Temperature:  07/01/12 は、乾湿温度で 102°F(38.9°C)を記録するという、 この夏における猛暑日の1つであった。しかし、 DX 冷房を使わずに済んだのは、気温の上昇に応じて、湿度が 26% RH まで低下したからである。

We also saw several days of high relative humidity over the course of the summer. High RH is potentially problematic in an evaporative cooling system, as our ability to cool air by adding water decreases as the RH of the incoming air increases. But, as illustrated by the chart for June 25, the dry bulb temperature tended to be low on the days RH was high this summer – meaning that we didn’t need to cool it before sending it into the data hall. (In fact, in some cases we actually added hot return air from the data hall to the supply air, to bring the relative humidity down within 90% RH cap.)

私たちは、この夏を通じて、相対湿度の高い日にも注目してみた。RH が高いことは、気化熱冷却システムにとって、潜在的な問題である。なぜなら、外気の RH が増加するにつれて、空気を冷やすための水を減らす必要があるがらだ。 しかし、6月25日のチャートが例証するように、この夏においては、乾湿気温が上昇する日に、RH が低下するという傾向があった 。つまり、この外気をデータホールに送る前に、それを冷やす必要がなかったことを意味している。 (実際のところ、キャップ値である 90% RH よりも相対湿度を下げるために、データホールから暖気を、供給する空気に加えるケースもあった)

↓ クリックで拡大 ↓

Outside Air Relative Humidity: The most humid day of this summer was 06/25/12, with a 97% RH. But it didn’t require DX cooling, as the coincident DB temperature was 68°F.

Outside Air Relative Humidity: この夏で、最も多湿な日は 06/25/12であり、その日の値は 97% RH であった。しかし、DB 温度も 68°F(20°C)に下がったため、DX 冷房は必要なかった。 

So it turns out this design can work in relatively high heat and humidity, and it can work as efficiently as it does at Prineville. In fact, the power usage effectiveness (PUE) for Forest City clocked in at 1.07 this summer, versus Prineville’s 1.09 during roughly the same period. It remains to be seen how efficiently the system would perform if both the DB temperature and the WB temperature were to simultaneously exceed the limits we’ve set, but the likelihood of such an event in this region is low, and its impact on annualized PUE would likely be minimal.

したがって、それでこのデザインが、比較的に高温多湿の環境でも、機能することが分かる。 そして、Prineville のケースと同様に、効率を高めることが可能である。 実際のところ、この夏における Forest City の PUE は 1.07 を記録しているが、同時期の Prineville は 1.09 であった。 もし DB 温度と WB 温度の双方が同時に、私たちが設定した限界をを超えるなら、このシステムが運用効率について、検証すべき視点が残されるだろう。しかし、この地域において、そのような現象が起こる可能性は低い。また、そのような状況になったとして、年間 PUE に対する影響は、おそらく最小で済むだろう。

↓ クリックで拡大 ↓

07/01/12 – 07/07/12: One week’s worth of trend data shows that DX cooling wasn’t required as dry bulb was high, but RH was low enough for evaporative cooling.

07/01/12 – 07/07/12:  1 週間の稼働におけるデータの傾向は、乾湿気温が上がれば RH が下がるという、気化熱冷却に適したものであり、また、DX 冷房が不要であることを示している。

If you’re interested in learning more about these designs and their performance, be sure to register for the upcoming Open Compute Summit, which will be held in Santa Clara, California, on January 16-17, 2013. We hope to see you there!

これらのデザインと性能について、さらに多くを知りたいなら、2013年1月16-17日に Santa Clara, California で開催される、Open Compute Summit に参加して欲しい。 そこで会いましょう!

Dan is a mechanical engineer at Facebook.

ーーーーー

TAG indexClick It ⇒

I found out an useful weather data in Japan Meteorological Agency, which describe the outside Air DB Temperature in TOKYO: 08/02/12 was one of the hottest days of the summer, with a high of 93.2° F (34.0°C) DB. But the coincident humidity was 41% RH. For the details, please click here. 

気になったので、気象庁の Web を調べてみたところ、日本各地の詳細データが見つかりました。2012年8月2日の東京は、日中の最高気温が 34.0°C まで上がりましたが、そのときの相対湿度は 41% RH まで下がっています。詳細については、ここをクリックしてみてください。

ーーーーー

>>>  Open Compute Japan の FB ページです! イイネをくださ~い! <<<

ーーーーー

<関連>

詳細な解説つきの Facebook Oregon DC フォト・ツアー
Facebook の、次の巨大データセンターが North Carolina に!
Facebook Oregon データセンターを、10分間の詳細ビデオで ど~ぞ!
Facebook の爆発的な成長と、それを支えるデータセンター戦略
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?
Facebook の 巨大 DC を気化熱で冷やす、ミストの秘密について説明しよう
Facebook は Open Compute を、コ・ロケーションにも適用する
Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり

Comments Off on OCP データセンターと、高温多湿気候との関係について

無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner レポート 2012 Q4

Posted in .Selected, Data Center Trends, Open Compute, Research by Agile Cat on March 4, 2013

‘Other’ server brands show strong growth thanks to webscale companies
http://wp.me/pwo1E-5Iy

By
Jordan Novet – Mar. 1, 2013
http://gigaom.com/2013/03/01/other-server-brands-show-strong-growth-thanks-to-webscale-companies/

_ Gigaom
Summary: Lesser known server makers reported bigger revenue growth for another quarter, as Facebook and other webscale companies keep buying custom servers.

Summary: Facebook などの Web スケール企業が、カスタムなサーバーを購入し続けていることで、それほど有名ではないサーバー・メーカーたちが、2012年 Q4 も売上を積み上げているというレポートがある。

Open Compute Project

No-name server makers posted stronger year-to-year revenue growth than traditional powers such as Hewlett-Packard and IBM in the fourth quarter of 2012, according to new Gartner data. The news, which falls in line with a trend going back to the third quarter of 2011, makes sense as webscale companies — Google, Facebook, etc. — demand inexpensive but custom-tailored servers for their data centers.

Gartner の新しいデータによると、それらの無名のサーバー・メーカーたちは 2012年 Q4 の売上において、Hewlett-Packard や IBM といった伝統的なブランドを、前年比で上回る数字をたたき出している。 このニュースは、2011年 Q3 からのトレンドに沿ったものであり、Google や Facebook などの Web スケール企業のデータセンターに、カスタム仕様のサーバーが低額で導入され始めたことと、つじつまが合っている。

According to Gartner, the “other vendors” increased revenue almost 22 percent year over year for the quarter, beating out Dell, Fujitsu, HP, IBM and Oracle. HP, a perennial leader in servers, saw its worldwide server revenue decline 3.3 percent during the same period, while Oracle’s dropped 18 percent.

Gartner によると、いわゆる Other Vendor たちは 2012年 Q4 の前年比較で、約 22% の成長を遂げており、Dell/Fujitsu/HP/IBM/Oracle などを打ち負かしている。 長年にわたりサーバー界をリードしている HP は、この期間のワールドワイド市場で 3.3% を下げているが、Oracle にいたっては 18% も下げている。

image“Application-as-a-business data centers such as Baidu, Facebook and Google were the real drivers of significant volume growth for the year,” Gartner Research Vice President Jeffrey Hewitt said in a statement.

「 Baidu や、Facebook、Google といった Application-as-a-Business データセンターは、昨年の総出荷量を構成する、ほんとうの意味での牽引力を発揮した」と、Gartner の Research Vice President である Jeffrey Hewitt は発言している。

HP and Dell lost some business from cloud and hosting provider Rackspace, which turned to Quanta and Wistron for custom servers based on Open Compute Project designs. Quanta also captured business from Amazon and Facebook.

Open Compute Project ベースのカスタム・サーバーが、ホスティングとクラウドのプロバイダーである Rechspace に対して、Quanta と Wistron から提供されたことで、HPと Dell は一定のビジネスを失った。 そして、Quanta は、Amazon と Facebook からビジネスを獲得している。

The Chinese search giant Baidu, which might be planning the world’s largest data center, with 100,000 servers, is reportedly giving its server business to Marvell Technologies.

中国のサーチ・ジャイアントである Baido は、100,000 台のサーバーを収容する、世界最大のデータセンターを設計しているようだ。 そして、伝えられるところによると、Marvell Technologies が、そこでのサーバー・ビジネスを獲得するらしい。

If the trend continues, and smaller server makers such as Quanta keep gaining ground, Gartner might want to start breaking out the “other vendors” in its reports.

もし、このトレンドが継続するなら、Quanta のような小規模サーバーメーカーが躍進するだろう。 そして Gartner も、Other Vendor たちを分析する、新たなレポートを企画するかもしれない。

Related research

ーーーーー

TAG indexOpen Compute Project 応援団である、Agile_Cat としては、とても嬉しい結果です。サーバー市場におけるシェアとしても、すでに 18.3% に達し、Dell を凌ぐところまで成長しています。ちょうど 明日(3/5)ですが、Open Compute の Asia Pacific @ Hong Kong ミーティングが開催され、Japan からも @fhide さんがキーノート・スピーカーとして参加します Smile  サーバーとデータセンターのレイヤを、競合から協調へ変えていこうとする、この Open Compute には、ぜひ、頑張ってもらいたいと思います。image

ーーーーー

<関連>

最新Intel と Facebook が実現する、100 Gbps でラックを貫く光学素材とは?
OCP Summit 2013 キーノート : モノリスを破壊する!

Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
Open Compute Summit 2013 : エコロジーと Asia Pacific
Open Compute Japan の FB ページが始まりました!
Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり

Comments Off on 無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner レポート 2012 Q4

OCP Summit 2013 キーノート : モノリスを破壊する!

Posted in .Chronicle, .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 14, 2013

OCP Summit IV: Breaking Up the Monolith
http://wp.me/pwo1E-5EX

Wednesday, January 16, 2013 · Posted by
Frank Frankovsky at 10:00 AM
http://www.opencompute.org/2013/01/16/ocp-summit-iv-breaking-up-the-monolith/

image

It’s hard to believe that the Open Compute Project was founded just a little over 18 months ago. At our first Summit, in June 2011, we had 200 participants, one official member (Facebook), and exactly three technology contributions (all from Facebook). Today, as nearly 2,000 people converge on Santa Clara to kick off the fourth OCP Summit, we have more than 50 official members and dozens of contributions from a wide variety of technology suppliers and consumers.

Open Compute Project が設立されてから、まだ 18ヶ月しか経っていないとは、信じがたい思いである。 2011年6月に開かれた最初のサミットには 200人が参加し、また、1人のオフィシャル・メンバー(Facebook)だけがいて、3つテクノロジー・コントリビューションだけがあった(すべてが Facebook から)。 そして、今日、4回目の OCP Summit をキックオフするために、約 2000人の人々が Santa Clara に押し寄せたように、私たちには 50のオフィシャル・メンバーがいて、多様なテクノロジー・プロバイダーとコンシューマから提供される、数多くのコントリビューションがある。

In October 2011 we announced the formation of a non-profit foundation to steer the project, and that organization has continued to evolve. In the last six months we’ve hired our first full-time employee, COO Cole Crawford, and added a new Compliance & Interoperability project. We’ve also seen our first international expansion, with the launch of an OCP Asia-Pacific chapter in Tokyo, and some encouraging engagement with the academic and research communities — including a Purdue University competition to design a biodegradable server chassis.

そして 2011年10月に、このプロジェクトを運営する非営利ファンデーションの立ち上げを発表したが、この組織は、いまもなお、発展し続けている。直近の 6ヶ月間において、私たちは初めてのフルタイム従業員であある Cole Crawford に、COO を務めてもらうようになり、また、新しいプロジェクトとして Compliance & Interoperability を加えた。 そして Tokyo では、OCP Asia-Pacific 支部の立ち上げという、初めてのインターナショナルな展開を確認している。 さらに、アカデミックおよび研究コミュニティとの連携という、力強い展開が生まれている。そこには、生分解性があるサーバー・シャーシを、初めて設計するという、Purdue University におけるコンペティションも含まれている。

We’ve also seen some tremendous engagement in the broader OCP community in the last six months. Some examples include:

そして、この 6ヶ月間では、OCP コミュニティの各所において、とても多くの協調が生じてきた。 以下は、その、いくつかの例である:

  • New members: More than a dozen new organizations have joined, including storage companies like EMC, Fusion-io, Hitachi, and Sandisk; microprocessor organizations like Applied Micro, ARM, Calxeda, and Tilera; and communications companies like NTT Data and Orange.
  • Adoption of open source hardware: More companies are being inspired to think differently about how they build out their infrastructures. Examples include Riot Games, which has decided to purchase systems based on OCP designs and built by Hyve Solutions, and Rackspace, which has decided to design and build its own infrastructure using OCP designs as a starting point.
  • Momentum around Open Vault and Open Rack: We launched these two projects at the third OCP Summit in May 2012, and we’re already seeing companies iterating on them in interesting ways and developing creative new technologies to complement them. Examples include new Open Rack designs from Avnet, Delta, Emerson, and Sanmina (many of which are being demonstrated at today’s Summit) and new server designs for the SAS expander slot on the Open Vault spec from Calxeda and Intel.
  • Products being delivered: Also at the May 2012 Summit, AMD and Intel announced that they’d been collaborating with Fidelity and Goldman Sachs to develop new boards to suit those companies’ specific workloads — codenamed Roadrunner and Decathlete, respectively. Just seven months later, both companies are here today demonstrating finished products.
  • New technology contributions: We’re starting to see significant momentum building behind technology contributions to the project. Some of the new contributions include designs for Fusion-io’s new 3.2TB ioScale card; the designs Rackspace has created for its new infrastructure; and designs for a new storage box that Hyve Solutions built for Open Rack. Facebook is also making a few new contributions, including modifications to Open Rack and Open Vault for use in cold-storage environments and designs for a new, all-flash database server (codenamed Dragonstone) and the latest version of its web server (codenamed Winterfell).
  • New members: 新しいメンバーとして、10社以上の組織が参加してきた。 そこには、EMC/Fusion-io/Hitachi/Sandisk などのストレージ・メーカーや、Applied Micro/ARM/Calxeda/Tilera などのマイクロ・プロセッサ・メーカー、そして NTT Data/Orange などのテレコム企業が含まれる。
  • Adoption of open source hardware:インフラストラクチャを構築していくための、これまでとは異なる方式により、数多くの企業がインスパイヤーされている。 Riot Games 場合は、Hyve Solutions が構築した、OCP デザインに基づくシステムの購入を決定した。また、Rackspace の場合は、OCP デザインを出発点とし活用する、独自のインフラを設/構築することに決めた。
  • Momentum around Open Vault and Open Rack: 2012年 5月に開催された、3回目の OCP Summit において、以下の 2つのプロジェクトが立ち上がった。 そして、すでに、それらを補完するために、複数の企業がきわめて興味深い方式で、創造的なニュー・テクノロジーを継続して開発している。たとえば、Open Rack デザインは、Avnet/Delta/Emerson/Sanmina により進められ、その多くが、今日の Summit でデモされる。 また、Open Vault 仕様の SAS エクスパンダー・スロットに対応する、新しいサーバー・デザインが、Calxeda/Intel により進められている。
  • Products being delivered: 同じく 2012年5月のサミットで AMD と Intel は、Fidelity および Goldman Sachs と協調することで、それぞれのワークロードに適した、新しいボードを開発すると発表した。AMD と Intel のボードは、Roadrunner と Decathlete とうコードネームを付けられている。そこから、わずか 7ヶ月が過ぎただけだが、両社とも最終的なプロダクトを、この Summit でデモする。
  • New technology contributions: このプロジェクトに対する、テクノロジー・コントリビューションの背後に、大きな勢いが構成されていることを、私たちは確認し始めている。いくつかの、新しいコントリビューションには、Fusion-io が提供する新しい 3.2 TB ioScale カードや、Rackspace による新しいインフラのデザイン、そして、Hyve Solutions が Open Rack のために構築した新しいストレージ・ボックスなどが含まれる。 Facebook も、いくつかのコントリビューションを、新たに行なっている。そこには、コールド・ストレージ環境で用いる、Open Rack と Open Vault に関するモディフィケーションや、まったく新しくデザインされたデータベース・サーバー(コードネーム Dragonstone)、そして、Web サーバーのための最新デザインなどが含まれる(コードネーム Winterfell)。

But most exciting of all are a series of new developments that will enable us to take some big steps forward toward better utilization of these technologies. One of the challenges we face as an industry is that much of the hardware we build and consume is highly monolithic — our processors are inextricably linked to our motherboards, which are in turn linked to specific networking technology, and so on. This leads to poorly configured systems that can’t keep up with rapidly evolving software and waste lots of energy and material.

しかし、すべてにおいて、最もエキサイティングなのは一連の新規開発であり、これまでのテクノロジーをさらに有効利用していくための、大きなステップを与えてくれる。 1つの産業として、私たちが直面する課題は、そこで構築/消費されていくハードウェアが、きわめてモノリシックでであるという点だ。つまり、私たちのプロセッサは、私たちのマザーボードと不可分であり、さらに言えば、特定のネットワーク・テクノロジーなどとも不可分である。こうした硬直した関係で、すべてが構成されているのだ。 そのため、急速に進化するソフトウェアに追いつくことの出来ないコンフィグレーションが、不完全なシステムへと導かれ、たくさんのエネルギーとマテリアルを浪費してしまう。

To fix this, we need to break up some of these monolithic designs — to disaggregate some of the components of these technologies from each other so we can build systems that truly fit the workloads they run and whose components can be replaced or updated independently of each other. Several members of the Open Compute Project have come together today to take the first steps toward this kind of disaggregation:

こうした問題を解消するためには、いくつかのモノリシックなデザインの破壊する必要がある。つまり、それらのテクノロジーを構成するコンポーネントを、相互に干渉しないかたちに分解していくのだ。そうすれば、それぞれのシステムで実行されるワークロードに、完全にフィットしたものを構築できる。 さらに言えば、それぞれのコンポーネントの、置き換えや更新も自由に行える。今日、ここに集まった Open Compute Project のメンバーは、この種の分解へ向けた、最初のステップを取っていくことになる:

  • Silicon photonics: Intel is contributing designs for its forthcoming silicon photonics technology, which will enable 100 Gbps interconnects — enough bandwidth to serve multiple processor generations. This technology also has such low latency that we can take components that previously needed to be bound to the same motherboard and begin to spread them out within a rack.
  • “Group Hug” board: Facebook is contributing a new common slot architecture specification for motherboards. This specification — which we’ve nicknamed “Group Hug” — can be used to produce boards that are completely vendor-neutral and will last through multiple processor generations. The specification uses a simple PCIe x8 connector to link the SOCs to the board.
  • New SOCs: AMD, Applied Micro, Calxeda, and Intel have all announced support for the Group Hug board, and Applied Micro and Intel have already built mechanical demos of their new designs.
  • Silicon photonics: Intel がコントリビュートしているのは、100 Gbps のインタラクションを可能にする、次世代の光学通信テクノロジーである。それにより、来るべきマルチ・プロセッサ時代においても、充分な帯域幅を確保できる。 また、このテクノロジーがあれば、従来では同じマザーボード上に配置する必要のあった、各種のコンポーネントをラック内に展開しても、低レイテンシを維持することが可能になる。
  • “Group Hug” board: Facebook がコントリビュートするのは、いくつかのマザーボードのための、新たな共通スロット・アーキテクチャの仕様である。この仕様は(Group Hug というニックネームを付けた)、完全にベンダー・ニュートラルな、ボードを作るために用いられ、また、マルチ・プロセッサの時代を通じて生き続けるだろう。 この仕様は、シンプルな PCIe  x8 コネクタを用い、それにより、SOC とボードをリンクさせる。
  • New SOCs: AMD/Applied Micro/Calxeda/Intel が、Group Hug ボードのサポートを発表した。 そして、すでに Applied Micro と Intel は、それぞれの新デザインの、メカニカル・デモを作成している。

Taken together, these announcements will enable data center operators to build systems that better fit the workloads they need to run and to upgrade through multiple generations of processors without having to replace the motherboards or the in-rack networking. This should in turn enable real gains in utilization and unlock even more efficiencies in data center construction and operations.

全体的な話になるが、これらの一連の発表により、データセンター・オペレーターたちは、実行すべきワークロードに適した、システムの構築を可能にするだろう。もちろん、それらのシステムは、マザーボードやラック内ネットワークを置き換える必要もなく、複数のプロセッサ世代をまたいでアップグレードしていける。 その次に来るのは、データセンターの構築/運用において、有用性とアンロックという観点から生じる現実的な利益であり、さらには、効率も改善されるはずである。

There’s a lot of work left to do here, but it’s never been more important for us to take these steps. As our lives become more connected, and as more devices and applications generate more data, we will face compute and storage challenges that existing technologies cannot handle efficiently.

そこには、置き去りにされてしまう、さまざまな仕事があるが、これらのステップを取っていく私たちにとって、重要ではなかったということだ。 いま以上に、私たちの生活がコネクトされるにつれて、さらには、より多くのデバイスとアプリケーションが、より多くのデータを生成するにつれて、これまでのテクノロジーでは効果的にハンドリング出来なかった、コンピュートとストレージの課題に、私たちは挑むことになる。

But we have one big advantage, as we face these challenges: We are doing this work together, in the open, and everyone has a chance to contribute — to help ensure that all the technologies we develop and consume are as scalable as possible, as efficient as possible, and as innovative as possible.

しかし、これらの手強い課題に直面するとき、私たちには大きなアドバンテージがある。 まず、私たちは協調している。 そして、オープンである。さらに言えば、誰にでもコントリビューションのチャンスがある。 それにより、私たちが開発する全テクノロジーが、可能な限りスケーラブルなかたちで消費され、可能な限りの効率を持ち、可能な限り革新的であることが、保証されていくのだ。

ーーーーー

TAG indexFrank Frankovsky さんのキーノートは、いつも淡々と、しかし、力強く展開していきます。 そして、このポストのように、派手な修飾語などは一切使わず、論理でグイグイと押してきます。 それは、彼にかぎらず、OCP のチーム全体に言えることであり、一瞬もブレることなく、オープンなインフラストラクチャの実現へ向けて、突き進んでいるように思えます。 さぁ、Japan が始まり、Asia Pacific が始まります。ご興味のあるかたは、OCP Japan 事務局まで お問い合わせください。 Image(70)

ーーーーー

<関連>

Open Compute Japan の FB ページが始まりました!
Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
Open Compute Summit 2013 : エコロジーと Asia Pacific
Open Compute Summit 2013 – Directory
Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり

 

Comments Off on OCP Summit 2013 キーノート : モノリスを破壊する!

Open Compute Japan の FB ページが始まりました!

Posted in .Chronicle, .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 9, 2013

2010年 4月から 現在までを、Timeline で ど~ぞ
http://wp.me/pwo1E-5Dq

image

2013年 1月 16日(日本では17日)にスタートした、Open Compute Asia Pacific ですが、その Facebook ページも、ようやく本格的に動き出すことになりました。 Japan ではなく Asia Pacific なの? ・・・という件ですが、Asia の中の Japan という位置づけで、この際、細かい話は、どちらでも構わないというのが、本家と分家の合意のようです Smile

そして、本題の Facebook ページですが、2010年 4月からの Timeline として構成され、これまでの Open Compute Project の動きと流れが、一目で分かるようになっています。 すべてが日本語ではないというか、大半が英語なのですが、ときおり登場する翻訳ポストを拾い読みしてみてください。 それだけで、Open Compute の素晴らしい理想と、重要性と、そして力強さを、分かってもらえると思っています。

↓ クリックで Facebook ページヘ ↓

image

↑ よろしければ イイネ を・・・↑

この Open Compute Timeline の、一番末尾の方に、つまり、2010年 4月のポストにですが、こんな一文を見つけました。

The ultimate goal of the Open Compute Project, however, is to spark a collaborative dialogue. We’re already talking with our peers about how we can work together on Open Compute Project technology. We want to recruit others to be part of this collaboration — and we invite you to join us in this mission to collectively develop the most efficient computing infrastructure possible.

Open Compute Project における究極のゴールは、コラボレーションのための会話を引き起こす点にある。私たちは、すでに同業者との対話を開始しており、Open Compute Project テクノロジー上での協調を模索している。私たちは、より多くの人々を、このコラボレーションの中に加えていきたい。そして、最も効率の良いコンピューティング・インフラストラクチャを、共同で開発していくというミッションに、あなたにも加わって欲しいと願っている。

ーーーーー

TAG indexコンピューティング・インフラストラクチャに関する議論が、ほんとうに必要であり、そこを無益な競合を繰り返してはいけないという、強い思いが伝わってきますね。 この Open Compute Project が立ち上がったときに、『 電力事情も含めた地球環境を考えれば、インフラストラクチャは協調のレイヤとなるべきであり、その上位に競合のレイヤが構成されるべきだ 』という、Mark Zuckerberg の発言がありました。それから 2年も待たずに、多くの支持を集め、これだけの勢いを持った OCP は、やはり理に適っているのですね。image

ーーーーー

<関連>

Open Compute Summit 2013 – Directory
Open Compute Summit 2013 : エコロジーと Asia Pacific
Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
Facebook は Open Compute を、コ・ロケーションにも適用する

%d bloggers like this: