Agile Cat — in the cloud

Microsoft から OCP へのコントリビューション:それが Sonic Linux Networking Suite だ!

Posted in .Selected, Data Center Trends, Facebook, Google, Microsoft, Open Compute by agilecat.cloud on March 11, 2016
Microsoft Contributes Its Sonic Linux Networking Suite to Open Compute Project
Manish Singh – March 10, 2016
http://gadgets.ndtv.com/apps/news/microsoft-contributes-its-sonic-linux-networking-suite-to-open-compute-project-811947
 
Screen Shot 2016-03-11 at 4.42.36 AM
 
Microsoft is taking a major step in the world of free, open-source software. The Windows maker has announced that it is giving away Sonic, its own designed software, to users for free.
 
Microsoft は、オープンソース・ソフトウェアという自由な世界で、大きな一歩を踏み出した。この Windows メーカーは、独自にデザインしたソフトウェア Sonic を、ユーザーに対して無償で配布するとアナウンスしたのだ。
 
microsoft_linux_nadella_officialAt the Open Compute Project US Summit, Microsoft announced that it is proposing to contribute Software for Open Networking in the Cloud (Sonic) to the project. The suite in question is utilised to control networking hardware, which typically run on programs mandated by their respective vendor. Microsoft has published the open-source project on its GitHub repository.
 
いま開催中の Open Compute Project US Summit において、Microsoft が発表したのは、このプロジェクトに対して、Software for Open Networking in the Cloud (Sonic) をコントリビュートするという提案である。一般には、それぞれのベンダーが義務付けるプログラムを用いて、ネットワーク・ハードウェアが制御されるわけだが、その方式を変更することが、ここでの論点となる。すでに Microsoft は、GitHubの リポジトリ上で、このオープンソース・プロジェクトを発表している。
 
Sonic, which runs on the Debian Linux distribution, can be deemed as a free alternative for many of Cisco‘s networking suites. “Sonic is a collection of software networking components required to build network devices like switches,” Microsoft wrote in a blog post.
 
Sonic は、Debian の Linux ディストリビューション上で動作し、また、Cisco から提供される多様なネットワーク・スイートを、無償で置き換えるものとみなされる。Microsoft は、「 Sonic は、スイッチなどのネットワーク・デバイスを構築するために必要な、ソフトウェア・ネットワーク・コンポーネントのコレクションである」と、そのブログで述べている
 
“Together with SAI (Switch Abstraction Interface — which Microsoft contributed last year), Sonic will enable cloud operators to take advantage of hardware innovation, while giving them a framework to build upon open source code for applications on the network switch. We believe it’s the final piece of the puzzle in delivering a fully open sourced switch platform that can share the same software stack across hardware from multiple switch vendors.”
 
「 SAI (Switch Abstraction Interface — 昨年に Microsoft がコントリビュート) と組み合わせることで、クラウド事業者たちにおけるハードウェア・イノベーションを促進することが、Sonic の役割である。それと平行して、対象となるネットワーク・スイッチ上で動作する、オープンソース・コードで構築されたアプリケーションのための、フレームワークを提供するものとなる。完全にオープンソース化された、スイッチ・プラットフォームを提供していくパズルにおいて、この Sinic が最後のピースになると、私たちは確信している。そのプラットフォームとは、多様なスイッチ・ベンダーから提供されるハードウェアを、同じソフトウェア・スタックを用いて共有するものである」
 
Microsoft joined the Facebook-founded Open Compute Project in 2014 as a founding member. The initiative publishes new hardware designs to improve the performance and feasibility of data centre technologies. Microsoft’s growing effort towards contributing to open source technologies is one of the many major changes the company has adopted under the leadership of Satya Nadella.
 
Facebook が設立した Open Compute Project に、Microsoft が参加したのは、2014年のことである。このイニシアチブは、データセンター・テクノロジーにおける、性能と実現性を改善するための、新しいハードウェア・デザインを発行している。このオープンソース・テクノロジーに対して、Microsoft が注力しているコントリュビューションは、Satya Nadella のリーダーシップの下で取り入れられた、同社における重要な変革の一つである。
 
Microsoft is not the only company making major news at the summit. Search giant Google also announced this week that it is joining the Open Compute Project.
 
今回の Open Compute Project US Summit において、Microsoft 以外の企業からも、重大なニュースが提供されている。あのサーチ・ジャイアントである Google が、この Open Compute Project に参加すると発表したのだ。
 
ーーーーー
open-compute昨年に Microsoft がコントリュビュートした SAI (Switch Abstraction Interface) も、今回の Sonic (Software for Open Networking in the Cloud) も、同社のデータセンターを運用するために利用されているのでしょう。 Microsoft のデータセンターでは、スイッチ・ベンダーが提供するソフトウェアは、ほとんど利用されてないのでしょうか? それとも、OCP にコントリビュートし、このコミュニティの力を借りることで、新たなデータセンター運用を実現したいと考えているのでしょうか? まぁ、いずれにしても、OCP への求心力は高まっているように思えます。 この NDTV ポスト以外にも、以下の記事が提供されています。_AC Stamp
 
Microsoft contributes to Facebook’s Open Compute Project; Cisco, are you watching?
Microsoft just joined Facebook and fired a huge shot at Cisco
Microsoft proposes SONiC contribution to Open Compute Project
Microsoft unveils software networking toolkit at OCP Summit as Google joins the party
Microsoft has released a Debian Linux switch OS. Repeat, a Debian Linux switch OS
ーーーーー
<関連>
Google が OCP に参加した! ハードウェア産業におけるゲーム・チェンジが加速していく!
OCP と テレコム: AT&T や Verizon などが、この新しいモデルに続々と参加してきた!
Quanta の コンバージド・インフラが登場:OpenStack および VMware と Microsoft に対応!
Facebook と Open Switch 市場: その具体的な戦略と、Cisco の反応
台湾からの情報: Quanta の VCE サーバーが、VxRack に独占的に搭載される?
 

Comments Off on Microsoft から OCP へのコントリビューション:それが Sonic Linux Networking Suite だ!

Google が OCP に参加した! ハードウェア産業におけるゲーム・チェンジが、さらに加速していく!

Posted in .Selected, Data Center Trends, Facebook, Google, Microsoft, Open Compute by agilecat.cloud on March 10, 2016
Google joins Facebook’s game-changing project that’s eating the $140 billion hardware market
Julie Bort –  March 9, 2016
http://www.businessinsider.com/google-joins-facebook-open-compute-project-2016-3
 
_ Business Insider
 
If the hardware industry was nervous about Facebook’s game-changing Open Compute Project before, it should now be downright terrified now: Google is now finally on board.
 
これまでのハードウェア業界は、Facebook が仕掛けたゲーム・チェンジである、Open Compute Project に対してナーバスになっていたが、これからは恐怖として実感していくはずだ。なぜなら、あの Google が、ついにボード・メンバーとして参加したからだ。
 
OCP, the extraordinary project that started as a controversial idea inside Facebook about five years ago, is revolutionizing the computer hardware industry. Google’s news was announced as part of the OCP tech conference taking place in San Jose this week.
 
この OCP とは、Facebook 内部での議論から生じたアイデアとして、約5年前にスタートした途方も無いプロジェクトのことであり、また、コンピュータのハードウェア業界に革命をもたらしている。そして、この Google に関するニュースは、今週の San Jose で開催されている、OCP のテック・カンファレンスて発表されたものである。
 
Google DCGoogle
An engineer works on racks of computers inside a Google data center.
 
OCP is doing for hardware what Linux, Android, and many other popular products did for software: making it free and “open source.”
 
OCP は、Linux や Android の、ハードウェア版として位置づけされている。そして、多様なプロダクトを生み出した、それらのソフトウェアのように、ハードウェアのオープンソースを無償で提供するものとなっている。
 
Anyone can take OCP’s hardware designs, change them, and contribute to them, with contract manufacturers standing by to build those pieces.
 
誰もが、OCP ハードウェアのデザインを取得し、変更し、また、コントリビュートすることができる。 それにより、さまざまなパーツの構築が促進され、OCP と契約を交わしているマニュファクチャが、支援されるという流れが生じる。
 
Creativity is flowing through OCP, where engineers can freely collaborate without worry about protecting their secrets. The project’s participants are  inventing new ways to build computer servers, storage, and networks that are faster and cheaper to use than the commercial counterparts from companies like HP, Dell, IBM and Cisco.
 
つまり、エンジニアたちは秘密の保護に気遣うことなく協調し、そのクリエイティビティが OCP を通じて循環していくことになる。具体的に言うと、このプロジェクトへの参加者たちは、コンピュータ/サーバ/ストレージ/ネットワーク機器を構築するための、新しい方法を発明してくことになる。そして、それらは、HP/Dell/IBM/Cisco といった企業が提供する商用プロダクトよりも、迅速かつ安価で利用できるものとなっていく。
 
In fact, HP and Dell are already on board with OCP, creating lines of servers that comply with OCP standards. HP has also agreed to become a contract manufacturer.
 
実際のところ、HP と Dell は、OCP 規格に準拠したサーバー・ラインを構築するために、すでに OCP のボード・メンバーになっている。そして HP も、OCP と契約し、そのマニュファクチャになることに合意した。
 
But Google had been conspicuously absent from OCP, even as other big companies that run huge data centers, from Microsoft to Goldman Sachs, joined and voiced their support. Like Facebook, Google designs and builds its own hardware for its own data centers.
 
しかし、Microsoft から Goldman Sachs にいたる、巨大データセンターを運用する大手企業たちが OCP に参加し、支持を表明しているのに対して、Google の不参加が目を引いていたことも確かであった。さらに言うなら、Facebook と同様に、Google も独自のデータセンターを運用するために、独自のハードウェアを設計/構築しているのだ。
 
Even last year, Google’s legendary data center engineer, Urs Hölzle, offered a begrudging respect for the OCP project while simultaneously pooh-poohing its importance.
 
昨年のことだが、Google における伝説のデータセンター・エンジニアである Urs Hölzle は、OCP プロジェクトに敬意を評したがらず、また、その重要性に異を唱えていた。
 
His take was that open source hardware was a nice idea, but the project’s designs so far were a “bit basic” and its impact would be minimal because most businesses will be using cloud computing from Google and others, instead of buying their own hardware, he told Business Insider.
 
彼が Business Insider に語ったところによると、オープンソース・ハードウェアは良いアイデアであるが、このプロジェクトにおけるデザインは基本を定義するものであり、また、その影響力はきわめて小さいとのことであった。その理由として、大半の企業は、独自のハードウェアを購入する代わりに、Google などのクラウド・コンピューティングを使用するからだと、彼は付け加えていた。
 
He’s got a point about how companies are using clouds instead of buying computers. But that’s why OCP has been such a big deal. Cloud players aren’t buying that stuff from the classic commercial players either. They are building their own with OCP.
 
企業はコンピュータを購入するのではなく、クラウドを使用するのだという点が、彼の指摘である。しかし、それこそが、OCP が注目される理由でもあるのだ。つまり、クラウド・プレーヤーたちは、従来からの商用プロダクトを購入しようとしないのだ。彼らは、OCP を用いて、独自の環境を構築しているのだ。
 
Like all open source projects, OCP is a give-and-take idea. You take and use all the designs, but ideally, you will also contribute to them.
 
すべてのオープンソース・プロジェクトと同様に、OCP は Give and Take という考え方を持っている。あなたは、すべてのデザインを採用/利用できるが、理想的には、あなたもコントリビュートすべきである。
 
So for Google’s first contribution, it’s offering designs for building greener, more energy-efficient computer racks. Data center racks are designed to hold and power many computer servers.
 
そして、Google からの最初のコントリビューションであるが、エネルギー効率の高いコンピュータ・ラックであり、環境に優しいデータセンターの設計/構築を促進するものとなる。データセンターのラックとは、大量のサーバーを保持し、また、電力を供給するためのものだ。
 
And there’s more where that came from. Google wants to work with the OCP community to share designs for its computer storage disks, greener computer servers, and better network management tools.
 
しかし、Google からのコントリュビューションは、それだけではない。Google は、OCP コミュニティでの活動を希望しているが、その目的はというと、同社におけるコンピュータ・ストレージ・ディスク/コンピュータ・サーバ/ネットワーク・マネージメント・ツールの、デザインの共有だとされている。
 
“Today’s launch is a first step in a larger effort. We think there are other areas of possible collaboration with OCP,” wrote John Zipfel, Technical Program Manager for Google in a blog post. “We look forward to new and exciting advancements to come with the OCP community.”
 
Google の Technical Program Manager である John Zipfel は、「今日の立ちあげは、これからの大きな取り組みにおける、最初のステップである。 私たちは、OCPとのコラボレーションを進めることで、さらに大きな領域を見つけ出せると考えている。私たちは、OCP コミュニティに参加することで、これまでに以上の先進性が得られることを、とても楽しみにしている」と、同社のブログ・ポストで述べている
 
SEE ALSO: How Facebook is eating the $140 billion hardware market
 
ーーーーー
Screen Shot 2016-03-10 at 5.19.14 PMopen-compute素晴らしい! Open Compute Project が始まって5年が経とうとしていますが、あの Google が参加することになるとは、その当時は思ってもいませんでした。 文中にもありますが、Urs Hölzle がブレーキを踏んでいたのでしょうね。 それが、Sundar Pichai 体制になったことで、Google にも変化が生じてきたのだと思います。 これも、とても良いことです! 次に参加してくるのは、どこなのでしょうか? 2011年 10月の、OCP NY Summit では、James Hamillton さんが、キーノート・スピーカーだったなぁ。。。  今年は行けなかった、OCP Summit ですが、来年は行きたいですwww _AC Stamp
ーーーーー
<関連>
OCP と テレコム: AT&T や Verizon などが、この新しいモデルに続々と参加してきた!
Quanta の コンバージド・インフラが登場:OpenStack および VMware と Microsoft に対応!
Facebook と Open Switch 市場: その具体的な戦略と、Cisco の反応
台湾からの情報: Quanta の VCE サーバーが、VxRack に独占的に搭載される?
中国の巨大クラウドを支える、Scorpio の Ver 3.0 が年末に発表される?
 

Comments Off on Google が OCP に参加した! ハードウェア産業におけるゲーム・チェンジが、さらに加速していく!

Apple と Open Compute:台湾の ODM が サーバーを受注しているらしい!

Posted in .Chronicle, .Selected, Apple, Asia, Data Center Trends, Facebook, Open Compute by agilecat.cloud on March 20, 2015
Taiwan white-box server makers land orders from Apple
Aaron Lee, Taipei; Joseph Tsai, DIGITIMES [Wednesday 18 March 2015]
http://www.digitimes.com/news/a20150318PD204.html
 
 _ Digi Times
 
Apple has joined the Facebook-established Open Compute Project in line with its plans to set up new cloud data centers and replace servers used in existing data centers. Some Taiwan-based white-box server makers have obtained orders from Apple and will begin shipments soon, according to Taiwan-based supply chain makers.
 
Apple は、新たなクラウド・データセンターを構築するために、そして、すでに稼働しているデータセンターのサーバーを刷新するために、Facebook が確立した Open Compute Project に参加した。Taiwan のサプライ・チェーン・メーカーからの情報によると、Taiwan をベースとする、いくつかのホワイトボックス・サーバー・メーカーが、すでに Apple からの受注を得ており、また、すぐに出荷が開始されるようだ。
 
OCP AppleApple is expanding its investments in datacenters and plans to invest US$2 billion to transform its sapphire glass factory in Arizona, the US to a datacenter and will invest EUR1.7 billion to establish datacenters in Ireland and Denmark. The datacenters in Europe are estimated to complete by 2017 to handle Apple’s online service in Europe.
 
Apple は、データセンターへの投資を拡大している。US の Arizona では、サファイア・ガラス工場をデータセンターに様変わりさせるために、US$2 billion を投資する計画が進んでいる。また、Ireland と Denmark にデータセンターを構築するために、EUR1.7 billion を投資するとされている。それらの、ヨーロッパにおけるデータセンターは、2017年までに完成すると予測されており、Apple のオンライン・サービスを、この地域に提供するために運用される。
 
Apple used to rely on Hewlett-Packard (HP) and Dell to supply servers, but is now looking to acquire servers with customized designs and cheaper prices, giving white-box server makers more chances on acquiring related orders, the sources said.
 
Apple は、データセンターで用いるサーバーを、Hewlett-Packard (HP) と Dell からの供給に依存してきた。しかし、これから購入するサーバーは、カスタマイズされたデザインと、引き下げられたコストを伴うものとなる。上記の情報筋によると、この Aplle の方針の転換により、ホワイトボックス・サーバー・メーカーにチャンスが訪れているようだ。
 
Apple is also said to be looking to enter the enterprise market with its existing business model for the consumer market and is cooperating with IBM for related applications, the sources noted.
 
さらに Apple は、コンシューマ市場のための既存ビジネス・モデルを、エンタープライズ市場に展開することで、同社にとって新しい市場に参入する糸口を、探しているとされる。つまり、それが、IBM との提携による、エンタープライズ・アプリケーションの供給であると、情報源は指摘している。
 
ーーーーー
open-compute先週にポストした「Open Compute : Summit 2015:ついに Apple が正式参加!」という抄訳で、その概要が報じられていますが、その後も動きも素早く展開しているようですね。 どこが受注しているのか、とても気になります。 そして、「Facebook 第四艦隊 Iowa DC が、ネットワーク・アーキテクチャを刷新して出撃!」で紹介されている試みが成功すえれば、Apple も OCP のネットワーク・スイッチを使用するようになるのでしょうか?  面白い展開なので、引き続き、ウォッチしていきたいと思います。_AC Stamp
ーーーーー
<関連>
Facebook の ネットワーク環境:そこに Cisco の支配は有り得ない
Facebook と OCP から、Wedge という名の オープン・スイッチが発表された!
台湾の無印サーバー:Quanta は出荷量の 90%:Wiwynn は前年比で 100% 増
Facebook のゴージャスな DC を、15枚の写真で紹介しよう!
Instagram の空前のマイグレ:200億枚のイメージを AWS から FB Bare-Metal へ!
 
 

Comments Off on Apple と Open Compute:台湾の ODM が サーバーを受注しているらしい!

Facebook 第四艦隊 Iowa DC が、ネットワーク・アーキテクチャを刷新して出撃!

Posted in .Selected, Data Center Trends, Facebook, Network, Open Compute by agilecat.cloud on February 19, 2015
Facebook Launches Iowa Data Center With Entirely New Network Architecture
Yevgeniy Sverdlik – November 14, 2014
http://www.datacenterknowledge.com/archives/2014/11/14/facebook-launches-iowa-data-center-with-entirely-new-network-architecture/
 
DC-Knowledge.png
 
Facebook announced the launch of its newest massive data center in Altoona, Iowa, adding a third U.S. site to the list of company-owned data centers and fourth globally.
 
Facebook は、最新の大規模データセンターを、Altoona, Iowa で立ち上げたと発表した。それは、US 国内においては 3番目の、そして、グローバルでは 4番目のファシリティとして、同社のリストに加えられることになる
 
The Altoona facility is the first in Facebook’s fleet to feature a building-wide network fabric – an entirely new way to do intra-data center networking the company’s infrastructure engineers have devised.
 
この Altoona ファシリティは、ビルディング全体をカバーするネットワーク·ファブリックを、Facebook DC 艦隊では初めて搭載している。それは、同社のインフラ・エンジニアが考案した、データセンター内のネットワーキングを刷新するものである。
 
Faacebook Iowa DCThe social network is moving away from the approach of arranging servers into multiple massive compute clusters within a building and interconnecting them with each other. Altoona has a single network fabric whose scalability is limited only by the building’s physical size and power capacity.
 
このソーシャル・ネットワークは、大量のサーバーを詰め込んだ、大規模コンピューティング・クラスタ間を、相互に接続していくアプローチから離れようとしている。そして、Altoona に配備されたシングル・ネットワーク・ファブリックの拡張性を制約するものは、ビルディングの物理的なサイズと、電力キャパシティだけとなる。
 
Inter-Cluster Connectivity Became a Bottleneck
 
Alexey Andreyev, network engineer at Facebook, said the new architecture addresses bandwidth limitations in connecting the massive several-hundred-rack clusters the company has been deploying thus far. A huge amount of traffic takes place within each cluster, but the ability of one cluster to communicate with another is limited by the already high-bandwidth, high-density switches. This means the size of the clusters was limited by capacity of these inter-cluster switches.
 
Facebook のネットワーク・エンジニアである Alexey Andreyev が言うには、これまでに同社がディプロイしてきた、数百台のラックで構成される巨大クラスタ間の、接続における帯域幅の制約に対して、この新しいアーキテクチャで取り組んでいくとのことだ。発生する膨大なトラフィックは、それぞれのクラスタ内で処理されるが、クラスタ間を通信させる能力は、高帯域幅/高密度といわれるスイッチが限界を定める。つまり、クラスタのサイズは、それらを接続するスイッチの容量により、制約されていたことになる。
 
By deploying smaller clusters (or “pods,” as Facebook engineers call them) and using a flat network architecture, where every pod can talk to every other pod, the need for high-density switch chassis goes away. “We don’t have to use huge port density on these switches,” Andreyev said.
 
小規模なクラスタをディプロイし(Facebook のエンジニアはポッドとも呼ぶ)、フラットなネットワーク・アーキテクチャを用いることで、すべてのポッド間でのコミュニケーションが可能となり、高密度スイッチ・シャーシへの必要性が消える。Andreyev は、「それらのスイッチ上の、膨大なポート密度を使用する必要がなくなった」と述べている。
 
It’s easier to develop lower-density high-speed boxes than high-density and high-speed boxes, he explained.
 
高密度のハイ・スピード・スイッチより、低密度のハイ・スピード・スイッチを作成する方が容易であると、彼は説明している。
 
Each pod includes four devices Facebook calls “fabric switches,” and 48 top-of-rack switches, every one of them connected to every fabric switch via 40G uplinks. Servers in a rack are connected to the TOR switch via 10G links, and every rack has 160G total bandwidth to the fabric.
 
個々のポッドには、Facebook が Fabric Switch と呼ぶ 4つのデバイスと、48 Top-Of-Rack スイッチが取り込まれ、それぞれの Fabric Switch が 40G Uplink を介して、すべての Fablic Switch に接続される。 また、ラック内のサーバーは 10G Link を介して TOR スイッチに接続され、すべてのラックと Fablic の間には、合計で 160G 帯域幅が確保される。
 
Facebook Iowa NetworkHere’s a graphic representation of the architecture, courtesy of Facebook:
 
The system is fully automated, and engineers never have to manually configure an individual device. If a device fails, it gets replaced and automatically configured by software. The same goes for capacity expansion. The system configures any device that gets added automatically.
 
このシステムは完全に自動化され、それぞれのデバイスに関するマニュアル・コンフィグレーションを、エンジニアに要求することはない。デバイスに障害が発生した場合は、ソフトウェアによる置換えと、自動的なコンフィグレーションが実施される。それと同じことが、キャパシティの拡張に対しても適用される。 つまり、このシステムにより、あらゆるデバイスがコンフィグレーションされ、自動的に追加されていく。
 
Using Simple OEM Switches
 
The fabric does not use the home-baked network switches Facebook has been talking about this year. Jay Parikh, the company’s vice president of infrastructure engineering, announced the top-of-rack switch and Facebook’s own Linux-based operating system for it in June.
 
ただし、今年になって Facebook が話していた内製のネットワーク・スイッチが、このファブリックに使われるわけではない。この 6月に、同社の VP of Infrastructure Engineering である Jay Parikh が、Top Of Rack スイッチと Facebook 独自の Linux ベース OS の存在について発表していたので、注釈として加えておく。
 
The new fabric relies on gear available from the regular hardware suppliers, Najam Ahmad, vice president of network engineering at Facebook, said. The architecture is designed, however, to use the most basic functionality in switches available on the market, which means the company has many more supplier options than it has had in the older facilities that rely on those high-octane chassis for inter-cluster connectivity. “Individual platforms are relatively simple and available in multiple forms or multiple sources,” Ahmad said.
 
新しいファブリックは、一般的なハードウェア・サプライヤーからの供給されるギアに依存していると、同社の VP of Network Engineering である Najam Ahmad が発言している。このアーキテクチャをデザインしたが、マーケットで入手可能な最も基本的なスイッチを使用することになる。それにより当社は、クラスタ間を接続するハイ・スペック・シャーシに依存した、古いファシリティを有するのではなく、より多くのサプライヤーからソリューションを選択できるようになる。そして、「個々のプラットフォームは、相対的に見て、複数のフォームまたは複数のソースから選ばれる、シンプルで利用しやすいものになる」と、Ahmad は述べている。
 
New Architecture Will Apply Everywhere
 
All data centers Facebook is going to build from now on will use the new network architecture, Andreyev said. Existing facilities will transition to it within their natural hardware refresh cycles.
 
これから Facebook が構築していく、すべてのデータセンターにおいて、この新しいネットワーク・アーキテクチャが採用される。そして、既存のファシリティも、それぞれのハードウェア・リフレッシュ・サイクルに合わせて、新しいアーキテクチャに移行していくと、Andreyev は発言している。
 
The company has built data centers in Prineville, Oregon, Forest City, North Carolina, and Luleå, Sweden. It also leases data centers space from wholesale providers in California and Northern Virginia, but has been moving out of those facilities and subleasing the space until its long-term lease agreements expire.
 
すでに同社は、Prineville, Oregon/Forest City, North Carolina/Luleå, Sweden にデータセンターを構築している。また、California と Northern Virginia では、卸売プロバイダからデータセンター・スペースをリースしているが、それらのファシリティからの転出が進められており、長期にわたるリース契約の残存期間は、サブリースされるものと思われる。
 
In April, Facebook said it had started the planning process for a second Altoona data center, before the first one was even finished, indicating a rapidly growing user base.
 
この 4月に Facebook は、Altoona データセンターにおける 2号棟の計画を、1号棟の完成を待たずにスタートするとアナウンスしている。 つまり、そのユーザー・ベースが、急速に成長しているのだ。
 
The company has invested in a 138 megawatt wind farm in Iowa that will generate electricity for the electrical grid to offset energy consumption of its data center there.
 
また、同社は、Iowa の 138 MW 風力ファームに投資している。それにより、自身のデータセンターが消費する電力を、送電網に対してオフセットしていくことになる。
 
ーーーーー
open-computeこれまでのような、クラスタに依存するアーキテクチャでは、いかに高帯域幅/高密度なスイッチを用いても、その処理能力が、クラスタ間での通信速度の限界を定める。そして、クラスタのサイズは、それらを接続するスイッチの容量により制約されるので、クラスタという考え方を捨てる。 つまり、10万台のサーバーで構成される、1棟のデータセンターが、1つのクラスタだ、、、という、いかにも Facebook らしいデータセンターが誕生しました。 それが、Prineville/Forest City/Lulea に続く4つ目の、この Iowa の Altoona なのです。 先日に、「アジアの Facebook MAU は 4.5億人:儲からないけど、どうするの?」という抄訳をポストしましたが、そのアジアのユーザーのために、このようなデータセンターを構築してくれたのでしょうか? ここは、ご好意に甘えるとして、バンバンと Facebook を使わせていただきましょう:)  _AC Stamp
ーーーーー
<関連>
Facebook のユーザー数は 14億人:世界の 70億人の、5人に1人が使っている!
Facebook Lite がデビュー:取り組むべきは途上国マーケットの 2G 環境だ!
Facebook エンジニア と Android ローエンド:積極的に使ってアジアを知る!
Facebook アプリ:Push + Delta + Thrift で モバイル帯域を 40% も削減!
Facebook が語るモバイル・チューニングの極意:これで途上国も OK!
Facebook と Mark の途上国戦略:Coca-Cola スタイルの長期スパンで考えていく
 
 

Comments Off on Facebook 第四艦隊 Iowa DC が、ネットワーク・アーキテクチャを刷新して出撃!

Facebook のゴージャスな DC を、15枚の写真で紹介しよう!

Posted in Data Center Trends, Facebook, Open Compute by Agile Cat on September 19, 2014

Take A Tour Through Facebook’s Gorgeous Data Centers
http://wp.me/pwo1E-7ST
Dave Smith − Sep. 5, 2014
http://www.businessinsider.com/15-photos-of-facebook-data-centers-2014-9

_ Business Insider

Facebook announced the Open Compute Project in 2011 as a way to openly share the designs for its data centers — "to spark a collaborative dialogue … [and] collectively develop the most efficient computing infrastructure possible."

Facebook がデータセンターのデザインを広く共有する方法として、Open Compute Project についてアナウンスしたのは 2011年のことだった。それにより、コラボレーションが活性化し、最も効率的なコンピューティング·インフラを、協調しながら開発していくという流れが生まれた。

Alan Brandt

Starting in 2009, three Facebook employees dedicated themselves to custom-designing servers, server racks, power supplies, UPS units, and battery backup systems for the company’s first data center in Prineville, Oregon.

2009年に 3人の Facebook 従業員が、 Prineville, Oregon における同社としては初めてのデータセンターのための、サーバー/サーバー・ラック/電源/UPS/バッテリ·バックアップといったシステム対して、カスタムなデザインをコントリビュートした。

By 2011, Facebook’s data center in Prineville used 38% less energy to do the same work as the company’s other data centers at the time, while costing 24% less.

そして、2011年の Prineville データセンターは、38% という消費電力の低減と、24% のコスト削減という、すばらしい結果を残した。

Since then, Facebook has improved on its designs, and last summer, opened another data center in Lulea, Sweden.

その後の Facebook は、そのデザインを改善し、また、昨年の夏には、Lulea, Sweden にも新しいデータセンターをオープンしている。

With the help of Facebook and photographer Alan Brandt, we compiled some photos to show off what Facebook’s data centers look like from the inside and outside. And these are some really gorgeous-looking facilities.

Facebook と、カメラマンである Alan Brandt の助けを借りて、Facebook データセンターの内側と外側を示す、いくつかの写真をまとめてみた。それらは、とてもゴージャスなファシリティであると思える。

↓ クリックで Facebook アルバムへ ↓

ーーーーー

ゴージャスと言っても、フカフカのソファーが置いてあるという意味ではなく、あの巨大なサービスを支えるサーバーやストレージに適したという話なのですが、そこで働くエンジニアにとっては、それこそがゴージャスなのだと思います。 Agile_Cat も、この Prineville DC には、一度 お邪魔したことがあるのですが、何から何まで、想像を絶する規模で構築されていたのが、とても強く印象に残っています。 たまたまですが、昨日の東京では、OCP Engineering Workshop 2014 が開催され、100人以上の人々が集まりました。 朝から夕方まで、ぎっちりと詰まった各セッションで、とても熱い議論が繰り返されていました。 これから、OCP Japan が考えていくことは、アジアという地域のビジネスに適した、データセンターのデザインを考えることに、集約されていくのだろうと思います。(この写真は、林雅之さんのブログからのものです)  

ーーーーー

<関連>

Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
Instagram が達成した史上最大のマイグレーション:200億枚のイメージを AWS から FB DC へ!
Facebook と Open Compute から、ついに Wedge という名の オープン・スイッチが発表された!
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?

Comments Off on Facebook のゴージャスな DC を、15枚の写真で紹介しよう!

Storage の調査: Long-Term Low-Cost のコールド・ストレージは 5 PB へと向かうのか?

Posted in .Selected, Facebook, On Monday, Open Compute, Storage by Agile Cat on April 7, 2014

Storage: Long-Term Low-Cost COLD Storage Solutions
http://wp.me/pwo1E-7nI

By Dick Weisinger – April 4, 2014
http://formtek.com/blog/storage-long-term-low-cost-cold-storage-solutions/

_ formtek

Recently at the Open Compute Summit, Facebook VP of Engineering, Jay Parikh described how Facebook has rigged together a system based on 10,000 Blu-ray discs that fit into a single cabinet, capable of storing 1 petabyte of data.  Facebook plans to improve on this first attempt and be able to reach 5 petabytes per cabinet.  Compared to existing hard disk solutions, Parikh says that the Blu-ray solution will be 50 percent cheaper and use 80 percent less energy. It will also provide 50 years worth of durability for data stored on the discs.

先日の Open Compute Summit で Facebook VP of Engineering である Jay Parikh が説明したのは、1万枚の Blu-ray ディスクをベースにしたシステムを単一の筐体に収め、1 Peta Byte のデータをストアするという、Facebook で試している方式である。また、Facebook は、この試みを改善することで、キャビネットあたりに 5 Peta Byte をストアしようと計画している。Parikh が言うには、既存のハード·ディスク·ソリューションと比較して、この Blu-ray ソリューションでは、コストが 50% も低減され、また、電力消費量は 80% もカットされるようだ。そして、ディスクに保存されたデータに対しては、50年の耐久性という価値も提供される。

Sony, original creator of Blu-Ray technology, and Panasonic have also recently teamed up to address the need for finding a robust long-term low-cost solution for archiving content.  They’ve recently announced that they would jointly produce a 300 GB optical disc for long-term archival.  The product family is to be named “Archive Disc” and should become available in 2015.  The target is to create Blu-Ray optical discs with a 1 TB capacity and to then package them into a disc cartridge containing 12 discs.

Blu-Ray テクノロジー の発案者である Sony と、つい先日に Panasonic が提携したが、アーカイブ・コンテンツのたための、堅牢な Long-Term Low-Cost ソリューションが、そこでの取り組みとなる。 そして、Long-Term アーカイブのために、300 GB の光ディスクを、恊働で生産すると発表している。このプロダクト・ファミリーは、“Archive Disc” と命名され、2015年には利用が可能になるはずだ。そのターゲットは、1 TB の容量を持つ Blu-Ray ディスクを開発であり、また、ディスク・カートリッジ内に、12枚のディスクをパッケージ化することである。

Not everyone is buying into the Facebook strategy.  Mark Peters, a senior analyst at Enterprise Strategy Group, commented that “some of what Facebook was doing was laying out a challenge to storage vendors.  I think what they were really communicating was that there is a need for low cost reliable storage.”

誰もが、Facebook の戦略に与するわけではない。Enterprise Strategy Group のシニア・アナリストである Mark Peters は、「 たしかに、Facebook における幾つかの取り組みは、ストレージ・ベンダーへの挑戦を提起した。そして、実際に彼らが発信したことは、低コストで高信頼性のストレージに、大きなニーズがあるということだったと、私は理解している」と述べている。

Bruce Kornfeld, Interim CMO at Spectra Logic, questions the logic of using Blu-Ray for commercial purposes.  Kornfeld said that “over the last 20 years the commercial data storage industry has attempted to commercialize multiple consumer technologies including CD ROM, CD Writeable, DVD writeable, 4mm Digital Audio Tape, 8mm video tape, and VHS video tape – with mixed results.  Consumer technologies offer high-volume and typically low cost storage media. The ‘low cost’ strengths of these technologies have also led to their downfall as they lack the device robustness and data reliability required by commercial data storage applications. In addition, consumer grade drives and media just don’t last very long. Blu-ray disc drive load mechanisms are probably good to a few thousand load/unload cycles. This compares with an LTO tape drive that is rated to 250,000 load/unload cycles. As you can see – the difference in durability is substantial!”

Spectra Logic の Interim CMO である Bruce Kornfeld は、Blu-Ray の商用目的での利用に対して、論理的に無理があると、異を唱えている。 そして、「 これまでの20年間において商用データ・ストレージ業界は、複数のコンシューマ・テクノロジーを商用化しようと試みてきた。そこに含まれるのは、CD ROM/CD Writeable/DVD Writeable/4mm Digital Audio Tape/8mm Video Tape/VHS Video Tape であり、また、それらの組み合わせである。たしかに、コンシューマ・テクノロジーは、一般的にみて大容積で低コストな記憶媒体を提供する。 しかし、それらのテクノロジーにおける低コストの強みは、商用データ・ストレージ・アプリケーションで必要な、デバイスの堅牢性とデータの信頼性を欠いているため、意味を持つものになり得ない。また、コンシューマ向けのドライブやメディアは、きわめて寿命が短い。Blu-Ray ディスク・ドライブのロード・メカニズムは、おそらく数千回の Load/Unload サイクルをサポートするだけだ。250,000回の Load/Unload サイクルに対応する、LTO テープ・ドライブの仕様と比較して欲しい。 誰もが分かるように、 耐久性が段違いなのだ!」と述べている

ーーーーー

この コールド・ストレージについては、すでに「 Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは? 」という抄訳でお伝えしていますが、Sony と Panasonic が提携して、新たなソリューションを展開するというのは、とても嬉しい話ですね。 文中で、Mark Peter さんが述べているように、Open Compute の目的は、ユーザーが本当に欲しいものを、すぐれたベンダーに安価に提供してもらうことです。その意味で、Sony と Pnasonic の提携は、とても素晴しいことです。 なお、Bruce Kornfeld さんには、No Comment です:)  __AC Stamp 2

ーーーーー

<関連>

Cloud の調査:エンタープライズがクラウドを導入する5つの大きな理由
IoT の調査:テック・ベンダーたちは、一般顧客へのアプローチを模索する
Hybrid File の調査:エンタープライズに必須なのは、パブリックとオンプレミスのブレンドだ!
Web Programming の調査:Google の Dart は Javascript をリプレースできるのか?
Mobile Security の調査:エンタープライズ と Android と フリー・アプリ

Comments Off on Storage の調査: Long-Term Low-Cost のコールド・ストレージは 5 PB へと向かうのか?

Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?

Posted in Data Center Trends, Open Compute, Storage by Agile Cat on January 29, 2014

Facebook has built a prototype system for storing petabytes on Blu-ray
http://wp.me/pwo1E-79F

By Derrick Harris – Jan 28, 2014
http://gigaom.com/2014/01/28/facebook-has-built-a-prototype-system-for-storing-petabytes-on-blu-ray/

_ Giga Om

Summary: During the Open Compute Summit in San Jose, Facebook VP of Engineering Jay Parikh shared some big statistics for the company’s cold storage efforts, including those for a protoytpe Blu-ray system capable of storing a petabyte of data today.

Summary: San Jose で開催中の Open Compute Summit において、Facebook VP of Engineering である Jay Parikh は、同社におけるコールド・ストレージに関する、いくつかの情報を共有したが、そこには、すでにペタバイト・データをストアできる、Blu-ray システムを用いるものが含まれていた。

ーーーーー

At last year’s Open Compute Summit, Facebook VP of Engineering Jay Parikh suggested the company might consider Blu-ray discs as a medium for improving durability and cutting costs for its long-term cold storage efforts. Now, Parikh said Tuesday during a keynote at this year’s event, the company is actually doing it.

昨年の Open Compute Summit でも、Facebook VP of Engineering である Jay Parikh は、Blu-ray ディスクが活用されるかもしれないと発言していたが、このメディアを用いることで、これまでの長期間において取り組んできた、コールド・ストレージの耐久性が向上し、また、コストが低減されることを示唆する内容であった。そして、今年のイベントのキーノートでは、同社が実際に、それを推進していることを発表した。

Facebook has built a prototype Blu-ray system capable of storing 10,000 discs and 1 petabyte of data in a single cabinet, with plans to scale it to 5 petabytes per cabinet. Blu-ray storage would save the company 50 percent in costs and 80 percent in energy usage over its existing hard-disk-based cold storage methods, Parikh said, and will provide 50 years worth of durability for data stored on the discs.

Facebook が開発しているプロトタイプは、10000 枚のディスクをシングル・キャビネットに格納し、1 Peta Byte ストレージを構築する Blu-ray システムのことであり、キャビネットごとの容量を 5 Peta Byte にスケールする計画も進んでいるという。そして、この Blu-ray ストレージは、同社における既存の HDD ベースのコールド・ストレージと比べて、50% のコストを低減し、80% の電力を削減し、また、ディスクに保存されたデータに対して 50年の耐久性を提供するものになると、Parikh は発言している。

That’s not the only tidbits Parikh shared about the company’s cold storage efforts, though. He said that the first site is now in production and storing 30 petabytes of data, but a second will be coming online soon. Within a couple months, Facebook expects to have 150 petabytes of data in cold storage, which is just a fraction of the 3 exabytes each facility is designed to house.

しかし、Parikh が共有したものは、同社のコールド・ストレージに関する、ちょっとしたトピックというものではない。彼が言うには、30 Peta Byte のデータをストアする最初のサイトが、すでにプロダクション・システムとして運用されており、2番目のサイトも近々に運用に入るらしい。そして Facebook は、数ヶ月以内に 150 Peta Byte のデータをコールド・ストレージに取り込む予定だが、その容量については、それぞれのファシリティで設定している、3 Exa Byte の一部に過ぎないとしている。

One other nugget worth noting from the morning as it relates to Facebook’s innovation on the storage front: In order to save money over data center-grade SSDs but still speed up the process, Facebook is now booting web servers using netbook-grade SSDs, hardware executive Matt Corddry said.

また、今日の午前中に Facebook が明らかにした、ストレージのイノベーションに関連する、もう1つの貴重な情報は、データセンター・グレードの SSD に対するコストを削減しても、プロセスの処理速度をスピード・アップできるというものだ。具体的には、ネットブック・グレードの SSD の活用であり、Facebook では、それを用いて Web サーバーをブートしていると、Hardware Executive である Matt Corddry が発言している。

Related research

The fourth quarter of 2012 in cloud January 2013
How direct-access solutions can speed up cloud adoption December 2012
The role of converged infrastructure in the data center December 2012

ーーーーー

TAG indexこういう発想は、プロダクトを売る側では、絶対に生まれてこないものなのでしょうね。文中にもあるように、これまで通りに、HDD をコールド・ストレージに使ってもらえるなら、単純に考えて、売上が2倍になるのですから。。。 しかし、ペタやエクサのレベルで、大量のデータをストアしなければならない、ユーザーのニーズを考えれば、このような方式が優れていることが一目で分かります。そして、さらに素晴らしいのが、電力コストを 80% も削減できるという点です。イイですね! これ! image

ーーーーー

<関連>

Open Compute Project : ついに Microsoft も参加を表明した!
SAP と HANA が、Open Compute に恋する理由
Linaro が OCP に参加 : Linux on ARM in DC が加速していく!
OCP オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出
2013年 : Open Compute Project の マトメ
2013年 : 世界の データセンターの マトメ

Comments Off on Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?

Open Compute Project : ついに Microsoft も参加を表明した!

Posted in .Selected, Facebook, Microsoft, Open Compute by Agile Cat on January 28, 2014

Microsoft joins Facebook-founded Open Compute Project, touts its ‘unprecedented’ contributions
http://wp.me/pwo1E-79A

By Kaylene Hong, jan 28, 2014
http://thenextweb.com/microsoft/2014/01/28/microsoft-joins-facebook-founded-open-compute-project-touts-its-unprecedented-contributions/

_TNW

The fifth summit of the Open Compute Project is happening on Tuesday, and Microsoft has revealed that it is the latest member to join the group, a Facebook-founded initiative that sees the company and its partners commit to developing and sharing designs for data center infrastructure.

Open Compute Project5回目のサミットが、この火曜日(1/28)に開催されるが、このグループに参加する、最も新しいメンバーの中に、Microsoft がいることが明らかになってきた。つまり、同社とパートナーたちが、データセンター・インフラストラクチャに関する成果やデザインを、この Facebook が設立/主導するイニシアチブと、共有していくことをコミットするわけだ。

Bill Laing, Microsoft’s corporate vice president for cloud and enterprise, says in a blog post that Microsoft will contribute what it calls its “cloud server specification” to OCP — referring to the designs for server hardware in Microsoft data centers that are being deployed for its largest global cloud services including Windows Azure, Bing, and Office 365.

Microsoft の Corporate VP for Cloud and Enterprise である Bill Laing は、「 Microsoft は、同社における Cloud Server Specification と呼ばれるものを、OCP にコントリビュートする」と、自身のブログ・ポストで述べている。 つまり、それは、Miicrosoft のデータセンターにおける、サーバー・ハードウェアのデザインを指し示すものであり、Windows Azure および、Bing、Office 365 などの、世界でも最大級のクラウド·サービスをディプロイするためのハードウェアが含まれる。

Microsoft says these servers are built to deal with the “enormous availability, scalability and efficiency requirements” of Windows Azure, its cloud platform. It says that compared to traditional enterprise server designs, the data center servers it has built to deliver its cloud services bring “up to 40 percent server cost savings, 15 percent power efficiency gains and 50 percent reduction in deployment and service times.”

Microsoft の発言によると、それらのサーバーは、同社のクラウド·プラットフォームである Windows Azure の、 「 きわめて大規模な環境における可用性/拡張性/効率性の要件」に対応するために構築されたものとなる。そして、従来からのエンタープライズ・サーバーのデザインと比較して、クラウド・サービスのために構築されたデータセンター・サーバー」は、最大で 40% のサーバー・コストの削減をもたらし、15% の電力効率の向上を達成し、さらには、デプロイメントとサービスに費やされる時間を 50% も削減するという。

Laing notes that Microsoft is the only other cloud service provider, other than Facebook, to publicly release its server specifications, and says the depth of information it is sharing with OCP is “unprecedented.”

Laing は Microsoft の取り組みについて、Facebook 以外のクラウド·サービス·プロバイダーとして、サーバーの仕様を公開していく唯一の存在であり、OCP と共有される情報は、「これまでにない、奥行き持つものになる」と指定している。

To show its commitment, Microsoft Open Technologies is also open sourcing the software code it created for the management of hardware operations including server diagnostics, power supply and fan control. The code is available on GitHub from today onwards.

このコミットメントを示すために、Microsoft Open Technologies も、ハードウェア運用におけるマネージメントのために作成された、ソフトウェア·コードをオープン・ソースにしている。それらは、サーバーの診断や、パワー・サプライ、ファン・コントロールを含むものである、今日から GitHub で提供されている。

“The Microsoft cloud server specification for OCP will help drive hardware innovation for cloud computing, which strengthens the Cloud OS vision to give customers a consistent platform for better IT efficiency and economics,” Laing says.

そして Laing は、「 OCP にコントリビュートされる Microsoft のクラウド・サーバー仕様は、クラウド・コンピューティングのためのハードウェア・イノベーションを促進するものになる。それは、顧客に提供される、Cloud OS のビジョンを強化するものとなり、より優れた IT のために、効率性と経済性を考慮した、一貫性のあるプラットフォームを実現していく」と述べている。

Headline image via Eric Piermont/AFP/Getty Images

ーーーーー

TAG indexアメリカ時間の 1月28日に開催される、OCP Summit に参加するため、San Jose に来ています。いまは、夜中の3時ですが、時差で眠れないので、OCP 関連の情報を探していたら、こんなニュースが提供されていました。 昨日には、登録を済ませてきたので、イベントのスケジュールも受け取って入るのですが(クリックで拡大)、詳細は明日にならないと分からないそうです。それにしても、Microsoft も OCP に参加するというのは、とても良いニュースですね。おそらく、9時から始まるキーノートで紹介されるのだと予測していますが、どんな話が出てくるのか、それが楽しみで、ワクワクしています。image

ーーーーー

<関連>

SAP と HANA が、Open Compute に恋する理由
Linaro が OCP に参加 : Linux on ARM in DC が加速していく!
OCP オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出
2013年 : Open Compute Project の マトメ
2013年 : 世界の データセンターの マトメ

Comments Off on Open Compute Project : ついに Microsoft も参加を表明した!

%d bloggers like this: