Agile Cat — in the cloud

Apple と Open Compute:台湾の ODM が サーバーを受注しているらしい!

Posted in .Chronicle, .Selected, Apple, Asia, Data Center Trends, Facebook, Open Compute by agilecat.cloud on March 20, 2015
Taiwan white-box server makers land orders from Apple
Aaron Lee, Taipei; Joseph Tsai, DIGITIMES [Wednesday 18 March 2015]
http://www.digitimes.com/news/a20150318PD204.html
 
 _ Digi Times
 
Apple has joined the Facebook-established Open Compute Project in line with its plans to set up new cloud data centers and replace servers used in existing data centers. Some Taiwan-based white-box server makers have obtained orders from Apple and will begin shipments soon, according to Taiwan-based supply chain makers.
 
Apple は、新たなクラウド・データセンターを構築するために、そして、すでに稼働しているデータセンターのサーバーを刷新するために、Facebook が確立した Open Compute Project に参加した。Taiwan のサプライ・チェーン・メーカーからの情報によると、Taiwan をベースとする、いくつかのホワイトボックス・サーバー・メーカーが、すでに Apple からの受注を得ており、また、すぐに出荷が開始されるようだ。
 
OCP AppleApple is expanding its investments in datacenters and plans to invest US$2 billion to transform its sapphire glass factory in Arizona, the US to a datacenter and will invest EUR1.7 billion to establish datacenters in Ireland and Denmark. The datacenters in Europe are estimated to complete by 2017 to handle Apple’s online service in Europe.
 
Apple は、データセンターへの投資を拡大している。US の Arizona では、サファイア・ガラス工場をデータセンターに様変わりさせるために、US$2 billion を投資する計画が進んでいる。また、Ireland と Denmark にデータセンターを構築するために、EUR1.7 billion を投資するとされている。それらの、ヨーロッパにおけるデータセンターは、2017年までに完成すると予測されており、Apple のオンライン・サービスを、この地域に提供するために運用される。
 
Apple used to rely on Hewlett-Packard (HP) and Dell to supply servers, but is now looking to acquire servers with customized designs and cheaper prices, giving white-box server makers more chances on acquiring related orders, the sources said.
 
Apple は、データセンターで用いるサーバーを、Hewlett-Packard (HP) と Dell からの供給に依存してきた。しかし、これから購入するサーバーは、カスタマイズされたデザインと、引き下げられたコストを伴うものとなる。上記の情報筋によると、この Aplle の方針の転換により、ホワイトボックス・サーバー・メーカーにチャンスが訪れているようだ。
 
Apple is also said to be looking to enter the enterprise market with its existing business model for the consumer market and is cooperating with IBM for related applications, the sources noted.
 
さらに Apple は、コンシューマ市場のための既存ビジネス・モデルを、エンタープライズ市場に展開することで、同社にとって新しい市場に参入する糸口を、探しているとされる。つまり、それが、IBM との提携による、エンタープライズ・アプリケーションの供給であると、情報源は指摘している。
 
ーーーーー
open-compute先週にポストした「Open Compute : Summit 2015:ついに Apple が正式参加!」という抄訳で、その概要が報じられていますが、その後も動きも素早く展開しているようですね。 どこが受注しているのか、とても気になります。 そして、「Facebook 第四艦隊 Iowa DC が、ネットワーク・アーキテクチャを刷新して出撃!」で紹介されている試みが成功すえれば、Apple も OCP のネットワーク・スイッチを使用するようになるのでしょうか?  面白い展開なので、引き続き、ウォッチしていきたいと思います。_AC Stamp
ーーーーー
<関連>
Facebook の ネットワーク環境:そこに Cisco の支配は有り得ない
Facebook と OCP から、Wedge という名の オープン・スイッチが発表された!
台湾の無印サーバー:Quanta は出荷量の 90%:Wiwynn は前年比で 100% 増
Facebook のゴージャスな DC を、15枚の写真で紹介しよう!
Instagram の空前のマイグレ:200億枚のイメージを AWS から FB Bare-Metal へ!
 
 

Facebook の ネットワーク環境:そこに Cisco の支配は有り得ない

Posted in .Chronicle, .Selected, Cisco, Data Center Trends, Facebook, Network, Open Compute by agilecat.cloud on March 19, 2015
Facebook Just Gained A Big Ally In Its Battle With Cisco
Julie Bort – Dec. 4, 2014
http://www.businessinsider.com/facebook-gains-juniper-as-new-ally-in-battle-with-cisco-2014-12
 
_ Business Insider
 
Last summer, an organization led by Facebook fired a huge shot at Cisco. On Thursday, on4e of Cisco’s oldest rivals, Juniper, jumped in to back Facebook in a big way.
 
昨年の夏のことだが、Facebook が率いる組織が、Cisco に対してきつい一撃を浴びせた。 そして、この木曜日(12/4)には、Cisco にとって最も古いライバルである Juniper が、この Facebook の試みに対して、最大級の支援を申し出るポジションへと飛び込んできたのだ。
 
Wedge_Mark_ZuckerbergJustin Sullivan Getty Images
 
Facebook CEO Mark Zuckerberg
 
And the threat to Cisco from Facebook went from huge to enormous. It won’t kill Cisco, but it will shake the trees a little bit and force Cisco to make some uncomfortable choices.
 
それにより、Cisco が Facebook に対して抱く脅威が、さらに増大することになる。 Cisco が倒されるようなことは起こり得ないが、この大樹を多少は揺さぶり、また、時には不快な選択を促すことになるだろう。
 
The shot was a new piece of networking equipment called the Wedge, which pushed Facebook into the $23 billion Ethernet switch market, currently dominated by Cisco.
 
前述の一撃とは、Wedge という名の新しいネットワーク機器のことであり、Cisco が支配している $23 billion Ethernet スイッチ市場に、Facebook を参戦させるものである。
 
This new switch wasn’t an actual product. It was a design for a new product, one that Facebook gives away for free through its Open Compute Project (OCP).
 
とは言え、この新しいスイッチというものは、現実的なプロダクトにはなっていなかった。つまり、Facebook が率いる Open Compute Project(OCP)を介して、新たなプロダクトのために無償で提供される、デザインという位置づけとなっていた。
 
OCP is a radically new way to build and buy computer hardware. Anyone can contribute to the designs and use them for free, ordering them from a contract manufacturer.
 
OCP が実現するのは、コンピュータ・ハードウェアの構築/購入のための、まったく新しい方式である。誰もがデザインをコントリビュートすることが可能であり、また、無償で使用することも可能である。 つまり、契約を交わしたマニュファクチャに発注することで、それらを具体的なレベルで製造できるのだ。
 
Now, Juniper has done exactly that. It designed its own version of the OCP switch, which works with its operating system, Junos OS. It ordered this design from a contract manufacturer, Alpha Networks, and Juniper will sell this switch to enterprises with big data centers.
 
まさに、いま、Juniper は、それを行っている。 同社は、OCP スイッチと自身の Junos OS を連携させるという、独自のバージョンをデザインしたのだ。そして、そのデザインを、契約マニュファクチャである Alpha Networks に発注し、大規模データセンターを有するエンタープライズに、この製造されたスイッチを販売していく。
 
There are a few important things about all of this.
 
この、一連の流れにおいて、いくつかの重要なポイントがある。
 
Facebook’s switch isn’t just a radically new way to buy a piece of hardware, it’s also part of a radically new way to design networks called software-defined networking (SDN).
 
ただし、Facebook のスイッチは、ハードウェアを購入するための、新しい方法だけに本質があるわけではない。それは、Software-Defined Networking(SDN)と呼ばれるネットワークをデザインするための、まったく新しい方法としても機能する。
 
SDN takes all the fancy features found in networking equipment and puts them into software that runs on servers. You still need the network equipment, but you need less of it and less expensive varieties. It will almost certainly cause a price war one day, if companies start to experiment with it and like it.
 
SDN とは、ネットワーク機器上で検出された、すべての想像上の機能を受け取り、それらをサーバー上で走るソフトウェアに置き換えていく。依然として、誰もがネットワーク機器を必要とするが、その数を減らし、また、コストも引き下げる必要がある。その種の実験もしくは、それに類するものを、複数の企業が開始すると、いつの日にかは、ほぼ確実に価格戦争の原因になっていく。
 
Facebook’s involvement with SDN will encourage them to do just that. If it works for Facebook, it could work for them.
 
Facebook による SDN への取り組みは、同じことを行おうとする企業を勇気づける。つまり、そこでの成果は Facebook だけのものではなく、同じ方向を目指すエンタープライズにとっても、きわめて有用なものとなるはずだ。
 
The Wedge, and Juniper’s version of it (named the “OCX1100″), is designed to work with lots of open source software, too. People can program it with a common language like Python. It works with popular open source management tools from Chef and Puppet Labs.
 
この Wedge と Juniper のバージョン(OCX1100)は、膨大なオープンソース・ソフトウェアと連携して、動作するようにもデザインされている。そして、Python のような共通の言語を用いて、それらをプログラムすることが可能である。さらに、Chef や Puppet Labs などから提供される、人気のオープンソース・マネージメント・ツールとも協調する。
 
All the network equipment makers are creating SDN switches, Cisco included. In fact Cisco says that its SDN product released last year is selling well.
 
Cisco を含めて、すべてのネットワーク機器メーカーが、SDN スイッチを作成している。実際のところ、昨年に Cisco がリリースした、その SDN プロダクツはよく売れていると言う。
 
But Cisco’s gear is not like the Wedge. Traditional switches from Cisco or Juniper are a single piece of equipment. They look like this:
 
しかし、Cisco のギアは、Wedge のようなものではない。 Cisco や Juniper から提供される、従来からのスイッチは、以下のような一体型の機器となっている:
 
Wedge_CiscoCisco Catlyst switches
 
The Wedge is designed to stitch together standard bits of hardware, that you can change as you see fit. It’s like Legos, only for a computer server, like so:
 
その点、Wedge は、目的に合わせた変更が可能なよう、スタンダード・ハードウェアを集めて、組み上げていくためにデザインされている。 それは、以下のようなものであり、コンピュータ・サーバーを対象とした Lego のようなものだ:
 
Wedge_DesignFacebook Wedge 
network switch
 
Facebook has no interest in competing with Cisco. It just wants to build reliable, low-cost and easy-to-maintain equipment to use in its own data centers. OCP hardware saved Facebook over $1 billion in its first three years, CEO Mark Zuckerberg said. Many other companies want the same.
 
Facebook は、Cisco と競合しようとしているのではない。自身のデータセンターで使用するための、高信頼性/低コスト/容易なメンテナンスを実現する設備を、単に構築したいと考えているだけなのである。OCP ハードウェアを活用し始めた Facebook は、最初の 3年の間に $1 billion を節約できたと、CEO の Mark Zuckerberg が発言している。 そして、他の企業も、同じことを行いたいだけなのである。
 
Most enterprises, even big telecom companies, don’t want to deal with designing and building their own Lego-like servers.
 
それが大手のテレコムであったとしても、ほとんどのエンタープライズは、Lego のような独自サーバーを設計/構築したいとは考えていない。
 
That’s where Juniper comes in. They can buy a Wedge from Juniper.
 
そこが、Juniper の目の付け所である。 つまり、それらのエンタープライズは、Juniper から Wedge を購入できるのだ。
 
Cisco is well aware of the Wedge. In October, a few months after the Wedge launched, Cisco joined the OCP as a a Gold member. It told its customers that if they want OCP products, they can come to Cisco. They don’t need to go to Alpha Networks or Juniper.
 
Cisco は、Wedge のことをよく知っている。 Wedge がローンチした数ヶ月後の 10月に、Cisco は Gold メンバーとして OCP に参加した。そして、OCP プロダクトを欲しがる顧客がいるなら、彼らは Cisco に来ると語っていた。 つまり、Alpha Networks や Juniper に行く必要は無いというわけだ。
 
Still, should Juniper’s OCP switch become popular, this should put Cisco in an uncomfortable position. Should it jump on the bandwagon, create its own Wedge, and put a knife in the back of its own SDN switch, which is selling well? Cisco has spent about $1 billion to create that product.
 
とは言え、Juniper の OCP スイッチに人気が集まれば、Cisco にとっては不本意なポジションが待っている。この流れに乗って、独自の Wedge を構築すべきなのか? それは、よく売れている、独自の SDN スイッチを、背後からナイフで突き刺すことにならないのか? このプロダクトを作成するために、すでに Cisco は $1 billion も費やしているのだ。
 
Or should it watch customers go to Juniper and its other competitors involved with OCP, like Arista?
 
さもなければ、顧客が Juniper に流れていくのを黙ってみているのか? さらに言えば、そこには Arista のような、OCP のメンバーも参戦してくるだろう。
 
Cisco had no comment on the Juniper switch, but did tell us, “Cisco has been a leader in advancing multiple open source programs, including the Open Compute Project.”
 
この Juniper のスイッチについて、Cisco はノーコメントを貫いている。 しかし、同社は、「 Cisco の先進性は、多数のオープンソース・プログラムでリーダーを務めているところにもあり、そこには Open Compute Project も含まれる」と、私たちに答えている。
 
SEE ALSO:  Why Cisco Has Showered These 3 Men With Billions Of Dollars
 
ーーーーー
open-computeこのポストは、2014年12月のものであり、この後に続くコンセプトとして、すでに 6-pack が登場しています。 ここで紹介されている Wedge と Fabric をセットにしたものですが、それ自体も SDN のためのホワイトボックスという位置づけになります。すでに、Pluribus というスタートアップが動き出しているようです。 この会社は、長年にわたり Cisco の幹部を務めていた Kumer Srikantan に率いられ、Yahoo の創業者である Jerry Yang に支援され、$50 million を調達しているとのことです。 同社のプロダクトは、Facebook の Wedge と同様のスタイルで構築され、市販のコンポーネントでハードウェアを構成し、独自のオープンソース・フレーヴァーのソフトウェアを有しているようです。 まさに、OCP デザインを活用したビジネス・モデルというわけです。_AC Stamp
ーーーーー
<関連>
Open Compute : Summit 2015:ついに Apple が正式参加!
Facebook 第四艦隊 Iowa DC が、ネットワークを刷新して出撃!
Facebook と OCP から、Wedge という名の オープン・スイッチが発表された!
Facebook は Open Compute のおかげで、3年で 1200億円も節約できた!
無印サーバー:Quanta は出荷量の 90% 以上:Wiwynn は前年比で 100% 増
 

Open Compute : Summit 2015:ついに Apple が正式参加!

Posted in .Selected, Apache, Data Center Trends, Facebook, Open Compute by agilecat.cloud on March 12, 2015
Apple Joins Facebook’s Hardware Design Community
Yevgeniy Sverdlik – March 10, 2015
http://www.datacenterknowledge.com/archives/2015/03/10/apple-joins-facebooks-hardware-design-community/
 
_ DC Knowledge
 
Apple has officially joined the Open Compute Project, the Facebook-led open source hardware and data center design initiative, after being involved in it quietly for some time.
 
Apple が Open Compute Project(OCP)に、 オフィシャルに参加することになった。 この Facebook が主導する Open Compute Project は、ハードウェアとデータセンターのオープンソース・デザインを推進するものだが、これまでにも Apple は、ときおり参加していたようだ。
 
OCP Aple JoinFrank Frankovsky kicking off OCP Summit 2015 in San Jose, CA. (Photo: Open Compute Project Twitter page)
 
While the company is known primarily for its consumer devices and iTunes, it also has a massive data center infrastructure that supports its online services. Companies that operate large data centers benefit from designing their own hardware, and OCP has become a beachhead for the community of vendors and end users that support this approach.
 
同社は、コンシューマなデバイス と iTunes の会社として知られているが、それらのオンラインサービスをサポートするための、大規模なデータセンター・インフラストラクチャも有している。OCP が要となり、そのアプローチをサポートする、ベンダーとエンドユーザーのコミュニティを推進している。そして、その結果として、各種の企業が、独自ハードウェアのデザインからメリットを得るかたちで、大規模なデータセンターを運用している。
 
Frank Frankovsy, chair and president of the OCP Foundation, announced the addition of Apple to the list of members during the opening keynote of the foundation’s annual summit in San Jose, California. “Apple has been involved in this project quietly for a long period of time,” he said. “They have excellent infrastructure engineering people.”
 
OCP Foundation の Chair and President である Frank Frankovsy は、San Jose, California で開催された同ファンデーションの年次ミット・キーノートで、メンバー・リストに Apple が追加されたと発表した。彼は、「 Apple は水面下で、このプロジェクトに長期間にわたり携わってきた。同社には、優れたインフラ・エンジニアたちがいる」と述べている。
 
Apple wasn’t the only new OCP member announced Tuesday. Others who joined include end users, such as Bank of America and CapitalOne, as well as vendors, such as HP, Cisco, Juniper, and Schneider Electric.
 
新しい OCP メンバーとして発表されたのは、Apple だけというわけではない。その他の新メンバーには、Bank of America と CapitalOne というユーザー企業が含まれ、また、HP/Cisco/Juniper/Schneider Electric といったベンダー企業も含まれる。
 
OCP members have been using the project to develop hardware designs based on open specs and designs that are open sourced through the project.
 
OCP のメンバーたちは、このプロジェクトを通じてオープンソース化されたスペックやデザインに基づき、ハードウェアを設計/開発している。 つまり、そこに、このプロジェクトが存在する意味がある。
 
For end users, the benefit is not only the ability to get custom hardware but also to have multiple vendors supply the same products, which ensures supply and brings down the price. For vendors, the community has been a way to get engaged with data center operators the size of Facebook, Microsoft (which joined last year), and now also Apple.
 
エンドユーザーにとって、カスタムなハードウェアを入手することだけに意味があるのではない。つまり、複数のベンダーが同じ製品を供給することで、その調達ラインが安定し、価格も引き下げられる。ベンダーにとっては、Facebook/Microsoft(昨年から)/Apple(今年から)といった規模のデータセンター運用者との、関係を構築するための場が提供される。
 
HP announced at the summit its first line of commodity servers for hyperscale data centers such end users operate. The new Cloudline servers are compliant with OCP.
 
たとえば HP は、エンドユーザーが運用する大規模データセンターにおける、最先端のコモディティ・サーバーを、今回のサミットで発表している。この、新しい Cloudline サーバーは、OCPに準拠している。
 
ーーーーー
open-computeApple にとって、OCP に参加するメリットは、計り知れないものとなるでしょう。 iPhone や Mac などで構成されるプロダクト・ラインと比べると、バックエンドのインフラが、少々 心もとない感じがしていましたが、このコミュニティを活用することで、飛躍的な改善が達成されるはずです。 その他では、Bank of America などの金融系企業の参加や、その他のベンダー系企業の参加が、とても興味深いです。 だいぶ以前の OCP サミットで、HP はステージにも立っていましたが、ようやく正式に参加したのだと推測します。 Cisco に関しては、昨秋にアナウンスがあったと思いますが、あらためてお披露目ということなのでしょう。_AC Stamp
ーーーーー
<関連>
Facebook のゴージャスな DC を、15枚の写真で紹介しよう!
Facebook 第四艦隊 Iowa DC が、ネットワークを刷新して出撃!
Facebook と OCP から、Wedge という名の オープン・スイッチが発表された!
Facebook は Open Compute のおかげで、3年で 1200億円も節約できた!
無印サーバー:Quanta は出荷量の 90% 以上:Wiwynn は前年比で 100% 増
 

Facebook 第四艦隊 Iowa DC が、ネットワーク・アーキテクチャを刷新して出撃!

Posted in .Selected, Data Center Trends, Facebook, Network, Open Compute by agilecat.cloud on February 19, 2015
Facebook Launches Iowa Data Center With Entirely New Network Architecture
Yevgeniy Sverdlik – November 14, 2014
http://www.datacenterknowledge.com/archives/2014/11/14/facebook-launches-iowa-data-center-with-entirely-new-network-architecture/
 
DC-Knowledge.png
 
Facebook announced the launch of its newest massive data center in Altoona, Iowa, adding a third U.S. site to the list of company-owned data centers and fourth globally.
 
Facebook は、最新の大規模データセンターを、Altoona, Iowa で立ち上げたと発表した。それは、US 国内においては 3番目の、そして、グローバルでは 4番目のファシリティとして、同社のリストに加えられることになる
 
The Altoona facility is the first in Facebook’s fleet to feature a building-wide network fabric – an entirely new way to do intra-data center networking the company’s infrastructure engineers have devised.
 
この Altoona ファシリティは、ビルディング全体をカバーするネットワーク·ファブリックを、Facebook DC 艦隊では初めて搭載している。それは、同社のインフラ・エンジニアが考案した、データセンター内のネットワーキングを刷新するものである。
 
Faacebook Iowa DCThe social network is moving away from the approach of arranging servers into multiple massive compute clusters within a building and interconnecting them with each other. Altoona has a single network fabric whose scalability is limited only by the building’s physical size and power capacity.
 
このソーシャル・ネットワークは、大量のサーバーを詰め込んだ、大規模コンピューティング・クラスタ間を、相互に接続していくアプローチから離れようとしている。そして、Altoona に配備されたシングル・ネットワーク・ファブリックの拡張性を制約するものは、ビルディングの物理的なサイズと、電力キャパシティだけとなる。
 
Inter-Cluster Connectivity Became a Bottleneck
 
Alexey Andreyev, network engineer at Facebook, said the new architecture addresses bandwidth limitations in connecting the massive several-hundred-rack clusters the company has been deploying thus far. A huge amount of traffic takes place within each cluster, but the ability of one cluster to communicate with another is limited by the already high-bandwidth, high-density switches. This means the size of the clusters was limited by capacity of these inter-cluster switches.
 
Facebook のネットワーク・エンジニアである Alexey Andreyev が言うには、これまでに同社がディプロイしてきた、数百台のラックで構成される巨大クラスタ間の、接続における帯域幅の制約に対して、この新しいアーキテクチャで取り組んでいくとのことだ。発生する膨大なトラフィックは、それぞれのクラスタ内で処理されるが、クラスタ間を通信させる能力は、高帯域幅/高密度といわれるスイッチが限界を定める。つまり、クラスタのサイズは、それらを接続するスイッチの容量により、制約されていたことになる。
 
By deploying smaller clusters (or “pods,” as Facebook engineers call them) and using a flat network architecture, where every pod can talk to every other pod, the need for high-density switch chassis goes away. “We don’t have to use huge port density on these switches,” Andreyev said.
 
小規模なクラスタをディプロイし(Facebook のエンジニアはポッドとも呼ぶ)、フラットなネットワーク・アーキテクチャを用いることで、すべてのポッド間でのコミュニケーションが可能となり、高密度スイッチ・シャーシへの必要性が消える。Andreyev は、「それらのスイッチ上の、膨大なポート密度を使用する必要がなくなった」と述べている。
 
It’s easier to develop lower-density high-speed boxes than high-density and high-speed boxes, he explained.
 
高密度のハイ・スピード・スイッチより、低密度のハイ・スピード・スイッチを作成する方が容易であると、彼は説明している。
 
Each pod includes four devices Facebook calls “fabric switches,” and 48 top-of-rack switches, every one of them connected to every fabric switch via 40G uplinks. Servers in a rack are connected to the TOR switch via 10G links, and every rack has 160G total bandwidth to the fabric.
 
個々のポッドには、Facebook が Fabric Switch と呼ぶ 4つのデバイスと、48 Top-Of-Rack スイッチが取り込まれ、それぞれの Fabric Switch が 40G Uplink を介して、すべての Fablic Switch に接続される。 また、ラック内のサーバーは 10G Link を介して TOR スイッチに接続され、すべてのラックと Fablic の間には、合計で 160G 帯域幅が確保される。
 
Facebook Iowa NetworkHere’s a graphic representation of the architecture, courtesy of Facebook:
 
The system is fully automated, and engineers never have to manually configure an individual device. If a device fails, it gets replaced and automatically configured by software. The same goes for capacity expansion. The system configures any device that gets added automatically.
 
このシステムは完全に自動化され、それぞれのデバイスに関するマニュアル・コンフィグレーションを、エンジニアに要求することはない。デバイスに障害が発生した場合は、ソフトウェアによる置換えと、自動的なコンフィグレーションが実施される。それと同じことが、キャパシティの拡張に対しても適用される。 つまり、このシステムにより、あらゆるデバイスがコンフィグレーションされ、自動的に追加されていく。
 
Using Simple OEM Switches
 
The fabric does not use the home-baked network switches Facebook has been talking about this year. Jay Parikh, the company’s vice president of infrastructure engineering, announced the top-of-rack switch and Facebook’s own Linux-based operating system for it in June.
 
ただし、今年になって Facebook が話していた内製のネットワーク・スイッチが、このファブリックに使われるわけではない。この 6月に、同社の VP of Infrastructure Engineering である Jay Parikh が、Top Of Rack スイッチと Facebook 独自の Linux ベース OS の存在について発表していたので、注釈として加えておく。
 
The new fabric relies on gear available from the regular hardware suppliers, Najam Ahmad, vice president of network engineering at Facebook, said. The architecture is designed, however, to use the most basic functionality in switches available on the market, which means the company has many more supplier options than it has had in the older facilities that rely on those high-octane chassis for inter-cluster connectivity. “Individual platforms are relatively simple and available in multiple forms or multiple sources,” Ahmad said.
 
新しいファブリックは、一般的なハードウェア・サプライヤーからの供給されるギアに依存していると、同社の VP of Network Engineering である Najam Ahmad が発言している。このアーキテクチャをデザインしたが、マーケットで入手可能な最も基本的なスイッチを使用することになる。それにより当社は、クラスタ間を接続するハイ・スペック・シャーシに依存した、古いファシリティを有するのではなく、より多くのサプライヤーからソリューションを選択できるようになる。そして、「個々のプラットフォームは、相対的に見て、複数のフォームまたは複数のソースから選ばれる、シンプルで利用しやすいものになる」と、Ahmad は述べている。
 
New Architecture Will Apply Everywhere
 
All data centers Facebook is going to build from now on will use the new network architecture, Andreyev said. Existing facilities will transition to it within their natural hardware refresh cycles.
 
これから Facebook が構築していく、すべてのデータセンターにおいて、この新しいネットワーク・アーキテクチャが採用される。そして、既存のファシリティも、それぞれのハードウェア・リフレッシュ・サイクルに合わせて、新しいアーキテクチャに移行していくと、Andreyev は発言している。
 
The company has built data centers in Prineville, Oregon, Forest City, North Carolina, and Luleå, Sweden. It also leases data centers space from wholesale providers in California and Northern Virginia, but has been moving out of those facilities and subleasing the space until its long-term lease agreements expire.
 
すでに同社は、Prineville, Oregon/Forest City, North Carolina/Luleå, Sweden にデータセンターを構築している。また、California と Northern Virginia では、卸売プロバイダからデータセンター・スペースをリースしているが、それらのファシリティからの転出が進められており、長期にわたるリース契約の残存期間は、サブリースされるものと思われる。
 
In April, Facebook said it had started the planning process for a second Altoona data center, before the first one was even finished, indicating a rapidly growing user base.
 
この 4月に Facebook は、Altoona データセンターにおける 2号棟の計画を、1号棟の完成を待たずにスタートするとアナウンスしている。 つまり、そのユーザー・ベースが、急速に成長しているのだ。
 
The company has invested in a 138 megawatt wind farm in Iowa that will generate electricity for the electrical grid to offset energy consumption of its data center there.
 
また、同社は、Iowa の 138 MW 風力ファームに投資している。それにより、自身のデータセンターが消費する電力を、送電網に対してオフセットしていくことになる。
 
ーーーーー
open-computeこれまでのような、クラスタに依存するアーキテクチャでは、いかに高帯域幅/高密度なスイッチを用いても、その処理能力が、クラスタ間での通信速度の限界を定める。そして、クラスタのサイズは、それらを接続するスイッチの容量により制約されるので、クラスタという考え方を捨てる。 つまり、10万台のサーバーで構成される、1棟のデータセンターが、1つのクラスタだ、、、という、いかにも Facebook らしいデータセンターが誕生しました。 それが、Prineville/Forest City/Lulea に続く4つ目の、この Iowa の Altoona なのです。 先日に、「アジアの Facebook MAU は 4.5億人:儲からないけど、どうするの?」という抄訳をポストしましたが、そのアジアのユーザーのために、このようなデータセンターを構築してくれたのでしょうか? ここは、ご好意に甘えるとして、バンバンと Facebook を使わせていただきましょう :)  _AC Stamp
ーーーーー
<関連>
Facebook のユーザー数は 14億人:世界の 70億人の、5人に1人が使っている!
Facebook Lite がデビュー:取り組むべきは途上国マーケットの 2G 環境だ!
Facebook エンジニア と Android ローエンド:積極的に使ってアジアを知る!
Facebook アプリ:Push + Delta + Thrift で モバイル帯域を 40% も削減!
Facebook が語るモバイル・チューニングの極意:これで途上国も OK!
Facebook と Mark の途上国戦略:Coca-Cola スタイルの長期スパンで考えていく
 
 

2014 Agile Cat:大人になった Facebook の マトメ

Posted in .Chronicle, Facebook, Open Compute by Agile Cat on December 27, 2014

意外と少なかった FB 関連のポスト数、、、でも、、、
http://wp.me/pwo1E-87I

OCP Japan をお手伝いしているという立場もあり、今年は無意識のうちに Facebook との距離感を考えていたのでしょう。 そのため、ポストするコンテントも絞り込んでいたのだと思いますが、こうして 2014年の Facebook を振り返ってみると、若さでゴリゴリ押していく企業から、大人の思慮がにじみ出てくる企業へと、そのポジションを引き上げてきた様子が浮かび上がってきます。おそらく、Open Compute Project や Internet.org といった、ノン・プロフィットの活動を生み出し、それを限りなくパブリックなものに変容させていくという Facebook のスタンスに、ある種の落ち着きが感じられるからなのでしょう。

とは言え、一介の企業が、こうした活動を推進していくためには、それを支える経済力が必要であり、また、その経営陣にはマネタイズとボランティアという、相反する局面を平行して推進していくだけの度量が求められます。 その意味でも、モバイル・アドを真っ先に成功させ、そこから生まれる余裕により、いくつかの社会貢献を成功させてきた手腕を評価したいです。

もっと現実的に見ていけば、それもビジネスなのですが、インフラに関する整備と情報共有を推進し、企業としての効率を高めた上で、そこから生まれる余剰を、途上国マーケットへ投資していくという、壮大なビジョンを実施してきたのは、この Facebook と Google だけだったと思います。 そして、一人のアジア人として、有難うと言いたいことなのです。

ーーーーー

01/28: Facebook は OCP のおかげで、この3年で 1200億円も節約できた!
02/04: Facebook が Open Graph の デベロッパー・コレクションを停止した
02/19: WhatsApp:① 買収額の $19 Billion を、歴史の中に位置づけてみる
02/19:
WhatsApp:② 10億人という ユーザー数に、FB よりも早く到達する? 
02/21: WhatsApp:③ Facebook を上回る、ユーザーを惹きつけるパワー
02/20: WhatsApp:④ Skype や Line と、どのように世界を住み分ける?
02/21: WhatsApp:⑤ 今年の試算だと、テレコムたちは $33 B も奪い取られる
02/20:
WhatsApp:⑥ キャリアの SMS ビジネスを、メッセージ・アプリが破壊

ーーーーー

04/01: モバイル・ブラウザは終わったのか? アプリによる 86% の占有
04/04:
Long-Term Low-Cost のコールド・ストレージは 5 PB へと向かう?
04/09: インドの FB ユーザー数が1億人:しかも 84% がモバイル接続だ!
04/22: 快速 WhatsApp は、すでに5億ユーザーに到達している!
04/28:
Google の Before/After で激変したプラットフォーム勢力図
04/30:
Facebook モバイル艦隊の快進撃が始まる
05/15:
Youtube と Facebook がモバイル・トラフィックの 1/3 を占有している
05/20: Google と Facebook で 75% を支配するモバイル広告
05/23:
B2C は Facebook で B2B は LinkedIn:大きく異なるソーシャル・シェア
06/19: Facebook と OCP から、Wedge という名の オープン・スイッチが発表!
06/20: 木曜日の夕方に生じた Facebook のダウンは、中国からの DDoS 攻撃?
06/30: Instagram:200億枚のイメージを AWS から FB Bare-Metal へ!

ーーーーー

07/15: Google と Facebook が支配する モバイル広告の世界
07/17:
Facebook が実験する BUY ボタン:Amazon や eBay の脅威に?
07/23:
Facebook 脅威の Q2 決算:3000 億円の売上げと 48% の粗利率 !
07/24: FB + WhatsApp + Instagram のユーザー数は、世界の総人口の 1/3
07/28:
Facebook Page for iPhone という、Apple にとって悩ましき存在とは?
09/03: Facebook が買収し続けている特許の内容が、とても興味深い
09/05:
Facebook のゴージャスな DC を、15枚の写真で紹介しよう!
09/22:
Facebook が語るモバイル・チューニングの極意:これで途上国も OK!
09/26: ソーシャルと滞在時間:Engagement Index 指標で FB がダントツ!
09/26: 広告:Yahoo と AOL を統合しても、Google と Facebook は止まらない
09/29: Facebook アドが 外の世界へ: Atlas が Google に 本気で挑んでいく

ーーーーー

10/06: クッキーは死んだ: そして Facebook/Google/Apple の広告が激変
10/16: モバイル・アドに苦悩する Google と、答えを見つけ出した Facebook
10/20:
FB アプリ:Push + Delta + Thrift で モバイル帯域を 40% も削減!
10/28: Facebook の 2014 Q3 決算を分析する:モバイル広告の伸びがスゴイ!
10/28: Facebook がビッグ・ウェーブに乗った:収益の 66% はモバイルから
10/30: Facebook の Graph API がアップデート、そして AD API も強化!
11/05:
iOS から Android へ : Facebook は優先順位を切り替えるのか?
11/13:
Facebook と Google によりソーシャル・ログインの 80% を占有

ーーーーー

テック・ジャイアントには、未来を語って欲しいし、夢を見せて欲しいし、ロマンに浸らせて欲しい。 その意味で、2014年は Facebook と Google の、二強の年だったと、個人的に捉えています。そして、2015年は、それが四強に戻り、さらには五強・六強へと、育っていって欲しい年なのです。

ーーーーー

<2014年:マトメの一覧>

2014:Top-20 ポスト 総マトメ(root)

ーーーーー

2014:月曜版 On Monday のマトメ
2014:王者の風格 Google のマトメ
2014:大人になった Facebook の マトメ
2014:新しい動向の マトメ
2014:とっても元気な アジアの まとめ
2014:データセンター と インフラ の マトメ
2014:ディジタル広告の マトメ
2014:ソーシャル関連の マトメ
2014:iOS/Android/iPad/Chromebook の マトメ
2014:日曜版の マトメ
2014:クラウドの一年を 振り返る、チャート の マトメ

ーーーーー

2013: 総マトメ Top-10
2012: 総まとめ ページ

2014 Agile Cat:データセンター と インフラ の マトメ

Posted in .Chronicle, Data Center Trends, Network, Open Compute, Satellite by Agile Cat on December 23, 2014

2015年は アジアへのインフラ投資が盛んになる・・・
http://wp.me/pwo1E-876

今年も、いろいろな話題が満載の、データセンターとインフラ系のマトメです。 まず、1月に開催された OCP Summit では、Mark Zuckerberg が登壇し、Facebook は OCP により 1200億円も節約できたと説明しました。 また、新たなメンバーとして、このサミットで Microsoft の参加が発表され、10月には Cisco も参加しました。とにかく、どんどんと超党派化してきている OCP をみると、OCP Japan のお手伝いをしている Agile Cat としても、嬉しい限りです。また、誰もが注目する DCIM(Data center infrastructure management)に関しては、Dell/HP/Intel/Emerson などが推進する、Redfish という標準化案が気になるところですね。

そして、今年のメガ・データセンターですが、Facebook のスウェーデンとアイオワがオープンし、Google もオランダに大規模 DC を構築すると発表しています。また、Microsoft が韓国に構築するというウワサも流れています。 この、私たちの住むアジアは、爆発的に成長するデータセンター・トラフィックに対して、まだまだ供給が追いついていない地域であり、日本のテレコム勢も大規模な投資を継続しているようです。 そして、海底ケーブルに関しては、シンガポールからインド洋の沿岸を通り、フランスまで伸びていく SEA-ME-WE 5 が注目を集めています。 こんな話を聞くと、北極海経由で、日本とヨーロッパ、そして、日本とアメリカ東海岸をつなぐケーブルが欲しくなりますね。

ーーーーー

01/28: Facebook は OCP のおかげで、この3年で 1200億円も節約できた!
01/28: Blu-ray ディスクを 10000枚:エクサ時代のコールド・ストレージとは?
01/28: Open Compute Project : ついに Microsoft も参加を表明した!
01/29:
AT&T と Equinix:エンタープライズ向けのクラウド・アライアンスを締結
01/29: FB が選んだ CA の DCIM:そのハイパー・スケール管理は?
02/04:
送電網の UPS として機能する次世代バッテリー・テクノロジー!
02/05: Sprint と Nokia が、Spark トライアルから絞り出す 2.6 Gbps とは?
02/05: Cisco:モバイル・トラフィック No.1 は、日本の 1.87GB/月だ!
02/13: Microsoft の巨大データセンターが韓国に構築されるらしい
03/05:
Equinix が新たに展開する Performance Hubs とは?
03/12:
海底ケーブル:SEA-ME-WE 5 がシンガポールとフランスを接続する!
03/28: コロケーションの世界:グローバルの Equinix と アジア NTT を比較する

ーーーーー

04/02: Digital Realty が 北米 4ヶ所の DC で、Open-IX サーティフィケーション
04/03: Green DC:ビジネスでの優位性に加えて、環境への影響も考慮すべき
04/04: Long-Term Low-Cost のコールド・ストレージは 5 PB へと向かうのか?
04/17: Google のインフラ投資は ケタ外れ:それを示す1枚のチャート
04/23:
台湾の Wistron と Inventec が、ARM サーバーの生産に着手する!
04/23: IBM はPower チップのオープン化と、Google の戦略
04/25:
NTT Com の、マレーシア 第4データセンターがオープンした
04/29: Level 3 と Digital Realty が AWS と Azure を取り込む
05/07:
ヨーロッパを 仮想 DC でカバーする、Interoute クラウドが香港に進出!
05/13: SingTel と Telecity は、非インターネットで Azure 接続を実現する
05/14: Google は言う:クラウドの料金も ムーアの法則に従うべきだ!
05/21: DigitalOcean が シンガポールに上陸! それを 支えるのは Equinix だ!
05/27: Data Center の調査: 未来のデータセンターは、小型で手元に置かれる
05/30: 赤道上に浮かべる 180基の衛星:Google は成層圏バックボーンを目指す?
06/01: Rackspace の OnMetal サービスが、Post-VM 時代のクラウドを提起する
06/01: IBM のクラウド戦略:SoftLayer London データセンターが立ち上がる
06/02: SoftLayer の Hong Kong DC がオープン: IBM の $1.2B はアジアへ?
06/11: Google が買収した、Skybox Imaging という衛星スタートアップについて
06/12: Google と Virgin が思い描く宇宙開発の夢とは? 宇宙船を Youtube で!
06/17: Digital Ocean が IPv6 の完全サポートを発表
06:18:
Interoute の 仮想 DC ゾーンは London -NY を 68ms で接続する!
06/18: SSD のビジネスは、2014年に 60% も拡大する : 台湾からのレポート
06/19: Facebook と OCP から、Wedge という名の オープン・スイッチが発表!
06/23: Akamai と OpenDNS が提携:もっと もっと Web を速くしたい!
06/30: Instagram のマイグレ:200億枚のイメージを AWS から FBへ!

ーーーーー

07/01: Rackspace の OnMetal サービスが、Post-VM 時代のクラウドを提起する
07/02: Internap の ベアメタル OpenStack が、Hong Kong DC にも展開!
07/23: Google: 始まりは自作サーバー、そして 5000億円/四半期のDC 資産へ
08/27: KDDI が 東京と大阪に構築する Telehouse DC と超弩級の電力密度!
09/04: Telehouse の New York IX が CoreSite と接続:北米最大の GW を実現
09/05: Facebook のゴージャスな DC を、15枚の写真で紹介しよう!
09/09:
Dell/HP/Intel/Emerson の Redfish は、IPMI 以来の標準に?
09/23: Google が オランダの海岸線に作る、120MW の Eemshaven DC とは?
10/22: Google データセンターの世界:とても豪華な写真集
10/24:
Data Center の調査:大変革を促す4つの要因とは? – Gartner
10/28:
Xiaomi が北京から脱出:インターナショナル・データは 海外 DC へ!
11/11: IDC : 2017年を境に DC数は減少にいたるが、キャパは成長し続ける
11/18: Google:オランダの 62MW 風力発電プロジェクトと大型契約を締結!
12/09: Cloud の調査:DC トラフィックは、2018年の時点で 8.6 ZB に至る

ーーーーー

さて、2015年の IT インフラは、どのように進化していくのでしょうかね? 個人的には、人工衛星を使ったインターネット・バックボーンに興味津々というところです。 Google や Facebook や SpaceX などが名乗りを上げているようですが、衛星が小型化/軽量化されてくると、その打ち上げコストも一挙に低下し、宇宙開発が大きく進歩するはずです。 それが、2015年なのか、まだ先なのか、その辺りが見えませんが、この領域は Agile Cat 2015 で追いかけて行きたいと思っています。

ーーーーー

<2014年:マトメの一覧>

2014:Top-20 ポスト 総マトメ(root)

ーーーーー

2014:月曜版 On Monday のマトメ
2014:王者の風格 Google のマトメ
2014:大人になった Facebook の マトメ
2014:新しい動向の マトメ
2014:とっても元気な アジアの まとめ
2014:データセンター と インフラ の マトメ
2014:ディジタル広告の マトメ
2014:ソーシャル関連の マトメ
2014:iOS/Android/iPad/Chromebook の マトメ
2014:日曜版の マトメ
2014:クラウドの一年を 振り返る、チャート の マトメ

ーーーーー

2013: 総マトメ Top-10
2012: 総まとめ ページ

Facebook のゴージャスな DC を、15枚の写真で紹介しよう!

Posted in Data Center Trends, Facebook, Open Compute by Agile Cat on September 19, 2014

Take A Tour Through Facebook’s Gorgeous Data Centers
http://wp.me/pwo1E-7ST
Dave Smith − Sep. 5, 2014
http://www.businessinsider.com/15-photos-of-facebook-data-centers-2014-9

_ Business Insider

Facebook announced the Open Compute Project in 2011 as a way to openly share the designs for its data centers — "to spark a collaborative dialogue … [and] collectively develop the most efficient computing infrastructure possible."

Facebook がデータセンターのデザインを広く共有する方法として、Open Compute Project についてアナウンスしたのは 2011年のことだった。それにより、コラボレーションが活性化し、最も効率的なコンピューティング·インフラを、協調しながら開発していくという流れが生まれた。

Alan Brandt

Starting in 2009, three Facebook employees dedicated themselves to custom-designing servers, server racks, power supplies, UPS units, and battery backup systems for the company’s first data center in Prineville, Oregon.

2009年に 3人の Facebook 従業員が、 Prineville, Oregon における同社としては初めてのデータセンターのための、サーバー/サーバー・ラック/電源/UPS/バッテリ·バックアップといったシステム対して、カスタムなデザインをコントリビュートした。

By 2011, Facebook’s data center in Prineville used 38% less energy to do the same work as the company’s other data centers at the time, while costing 24% less.

そして、2011年の Prineville データセンターは、38% という消費電力の低減と、24% のコスト削減という、すばらしい結果を残した。

Since then, Facebook has improved on its designs, and last summer, opened another data center in Lulea, Sweden.

その後の Facebook は、そのデザインを改善し、また、昨年の夏には、Lulea, Sweden にも新しいデータセンターをオープンしている。

With the help of Facebook and photographer Alan Brandt, we compiled some photos to show off what Facebook’s data centers look like from the inside and outside. And these are some really gorgeous-looking facilities.

Facebook と、カメラマンである Alan Brandt の助けを借りて、Facebook データセンターの内側と外側を示す、いくつかの写真をまとめてみた。それらは、とてもゴージャスなファシリティであると思える。

↓ クリックで Facebook アルバムへ ↓

ーーーーー

ゴージャスと言っても、フカフカのソファーが置いてあるという意味ではなく、あの巨大なサービスを支えるサーバーやストレージに適したという話なのですが、そこで働くエンジニアにとっては、それこそがゴージャスなのだと思います。 Agile_Cat も、この Prineville DC には、一度 お邪魔したことがあるのですが、何から何まで、想像を絶する規模で構築されていたのが、とても強く印象に残っています。 たまたまですが、昨日の東京では、OCP Engineering Workshop 2014 が開催され、100人以上の人々が集まりました。 朝から夕方まで、ぎっちりと詰まった各セッションで、とても熱い議論が繰り返されていました。 これから、OCP Japan が考えていくことは、アジアという地域のビジネスに適した、データセンターのデザインを考えることに、集約されていくのだろうと思います。(この写真は、林雅之さんのブログからのものです)  

ーーーーー

<関連>

Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
Instagram が達成した史上最大のマイグレーション:200億枚のイメージを AWS から FB DC へ!
Facebook と Open Compute から、ついに Wedge という名の オープン・スイッチが発表された!
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?

%d bloggers like this: