Agile Cat — in the cloud

Facebook の ネットワーク環境:そこに Cisco の支配は有り得ない

Posted in .Chronicle, .Selected, Cisco, Data Center Trends, Facebook, Network, Open Compute by agilecat.cloud on March 19, 2015
Facebook Just Gained A Big Ally In Its Battle With Cisco
Julie Bort – Dec. 4, 2014
http://www.businessinsider.com/facebook-gains-juniper-as-new-ally-in-battle-with-cisco-2014-12
 
_ Business Insider
 
Last summer, an organization led by Facebook fired a huge shot at Cisco. On Thursday, on4e of Cisco’s oldest rivals, Juniper, jumped in to back Facebook in a big way.
 
昨年の夏のことだが、Facebook が率いる組織が、Cisco に対してきつい一撃を浴びせた。 そして、この木曜日(12/4)には、Cisco にとって最も古いライバルである Juniper が、この Facebook の試みに対して、最大級の支援を申し出るポジションへと飛び込んできたのだ。
 
Wedge_Mark_ZuckerbergJustin Sullivan Getty Images
 
Facebook CEO Mark Zuckerberg
 
And the threat to Cisco from Facebook went from huge to enormous. It won’t kill Cisco, but it will shake the trees a little bit and force Cisco to make some uncomfortable choices.
 
それにより、Cisco が Facebook に対して抱く脅威が、さらに増大することになる。 Cisco が倒されるようなことは起こり得ないが、この大樹を多少は揺さぶり、また、時には不快な選択を促すことになるだろう。
 
The shot was a new piece of networking equipment called the Wedge, which pushed Facebook into the $23 billion Ethernet switch market, currently dominated by Cisco.
 
前述の一撃とは、Wedge という名の新しいネットワーク機器のことであり、Cisco が支配している $23 billion Ethernet スイッチ市場に、Facebook を参戦させるものである。
 
This new switch wasn’t an actual product. It was a design for a new product, one that Facebook gives away for free through its Open Compute Project (OCP).
 
とは言え、この新しいスイッチというものは、現実的なプロダクトにはなっていなかった。つまり、Facebook が率いる Open Compute Project(OCP)を介して、新たなプロダクトのために無償で提供される、デザインという位置づけとなっていた。
 
OCP is a radically new way to build and buy computer hardware. Anyone can contribute to the designs and use them for free, ordering them from a contract manufacturer.
 
OCP が実現するのは、コンピュータ・ハードウェアの構築/購入のための、まったく新しい方式である。誰もがデザインをコントリビュートすることが可能であり、また、無償で使用することも可能である。 つまり、契約を交わしたマニュファクチャに発注することで、それらを具体的なレベルで製造できるのだ。
 
Now, Juniper has done exactly that. It designed its own version of the OCP switch, which works with its operating system, Junos OS. It ordered this design from a contract manufacturer, Alpha Networks, and Juniper will sell this switch to enterprises with big data centers.
 
まさに、いま、Juniper は、それを行っている。 同社は、OCP スイッチと自身の Junos OS を連携させるという、独自のバージョンをデザインしたのだ。そして、そのデザインを、契約マニュファクチャである Alpha Networks に発注し、大規模データセンターを有するエンタープライズに、この製造されたスイッチを販売していく。
 
There are a few important things about all of this.
 
この、一連の流れにおいて、いくつかの重要なポイントがある。
 
Facebook’s switch isn’t just a radically new way to buy a piece of hardware, it’s also part of a radically new way to design networks called software-defined networking (SDN).
 
ただし、Facebook のスイッチは、ハードウェアを購入するための、新しい方法だけに本質があるわけではない。それは、Software-Defined Networking(SDN)と呼ばれるネットワークをデザインするための、まったく新しい方法としても機能する。
 
SDN takes all the fancy features found in networking equipment and puts them into software that runs on servers. You still need the network equipment, but you need less of it and less expensive varieties. It will almost certainly cause a price war one day, if companies start to experiment with it and like it.
 
SDN とは、ネットワーク機器上で検出された、すべての想像上の機能を受け取り、それらをサーバー上で走るソフトウェアに置き換えていく。依然として、誰もがネットワーク機器を必要とするが、その数を減らし、また、コストも引き下げる必要がある。その種の実験もしくは、それに類するものを、複数の企業が開始すると、いつの日にかは、ほぼ確実に価格戦争の原因になっていく。
 
Facebook’s involvement with SDN will encourage them to do just that. If it works for Facebook, it could work for them.
 
Facebook による SDN への取り組みは、同じことを行おうとする企業を勇気づける。つまり、そこでの成果は Facebook だけのものではなく、同じ方向を目指すエンタープライズにとっても、きわめて有用なものとなるはずだ。
 
The Wedge, and Juniper’s version of it (named the “OCX1100”), is designed to work with lots of open source software, too. People can program it with a common language like Python. It works with popular open source management tools from Chef and Puppet Labs.
 
この Wedge と Juniper のバージョン(OCX1100)は、膨大なオープンソース・ソフトウェアと連携して、動作するようにもデザインされている。そして、Python のような共通の言語を用いて、それらをプログラムすることが可能である。さらに、Chef や Puppet Labs などから提供される、人気のオープンソース・マネージメント・ツールとも協調する。
 
All the network equipment makers are creating SDN switches, Cisco included. In fact Cisco says that its SDN product released last year is selling well.
 
Cisco を含めて、すべてのネットワーク機器メーカーが、SDN スイッチを作成している。実際のところ、昨年に Cisco がリリースした、その SDN プロダクツはよく売れていると言う。
 
But Cisco’s gear is not like the Wedge. Traditional switches from Cisco or Juniper are a single piece of equipment. They look like this:
 
しかし、Cisco のギアは、Wedge のようなものではない。 Cisco や Juniper から提供される、従来からのスイッチは、以下のような一体型の機器となっている:
 
Wedge_CiscoCisco Catlyst switches
 
The Wedge is designed to stitch together standard bits of hardware, that you can change as you see fit. It’s like Legos, only for a computer server, like so:
 
その点、Wedge は、目的に合わせた変更が可能なよう、スタンダード・ハードウェアを集めて、組み上げていくためにデザインされている。 それは、以下のようなものであり、コンピュータ・サーバーを対象とした Lego のようなものだ:
 
Wedge_DesignFacebook Wedge 
network switch
 
Facebook has no interest in competing with Cisco. It just wants to build reliable, low-cost and easy-to-maintain equipment to use in its own data centers. OCP hardware saved Facebook over $1 billion in its first three years, CEO Mark Zuckerberg said. Many other companies want the same.
 
Facebook は、Cisco と競合しようとしているのではない。自身のデータセンターで使用するための、高信頼性/低コスト/容易なメンテナンスを実現する設備を、単に構築したいと考えているだけなのである。OCP ハードウェアを活用し始めた Facebook は、最初の 3年の間に $1 billion を節約できたと、CEO の Mark Zuckerberg が発言している。 そして、他の企業も、同じことを行いたいだけなのである。
 
Most enterprises, even big telecom companies, don’t want to deal with designing and building their own Lego-like servers.
 
それが大手のテレコムであったとしても、ほとんどのエンタープライズは、Lego のような独自サーバーを設計/構築したいとは考えていない。
 
That’s where Juniper comes in. They can buy a Wedge from Juniper.
 
そこが、Juniper の目の付け所である。 つまり、それらのエンタープライズは、Juniper から Wedge を購入できるのだ。
 
Cisco is well aware of the Wedge. In October, a few months after the Wedge launched, Cisco joined the OCP as a a Gold member. It told its customers that if they want OCP products, they can come to Cisco. They don’t need to go to Alpha Networks or Juniper.
 
Cisco は、Wedge のことをよく知っている。 Wedge がローンチした数ヶ月後の 10月に、Cisco は Gold メンバーとして OCP に参加した。そして、OCP プロダクトを欲しがる顧客がいるなら、彼らは Cisco に来ると語っていた。 つまり、Alpha Networks や Juniper に行く必要は無いというわけだ。
 
Still, should Juniper’s OCP switch become popular, this should put Cisco in an uncomfortable position. Should it jump on the bandwagon, create its own Wedge, and put a knife in the back of its own SDN switch, which is selling well? Cisco has spent about $1 billion to create that product.
 
とは言え、Juniper の OCP スイッチに人気が集まれば、Cisco にとっては不本意なポジションが待っている。この流れに乗って、独自の Wedge を構築すべきなのか? それは、よく売れている、独自の SDN スイッチを、背後からナイフで突き刺すことにならないのか? このプロダクトを作成するために、すでに Cisco は $1 billion も費やしているのだ。
 
Or should it watch customers go to Juniper and its other competitors involved with OCP, like Arista?
 
さもなければ、顧客が Juniper に流れていくのを黙ってみているのか? さらに言えば、そこには Arista のような、OCP のメンバーも参戦してくるだろう。
 
Cisco had no comment on the Juniper switch, but did tell us, “Cisco has been a leader in advancing multiple open source programs, including the Open Compute Project.”
 
この Juniper のスイッチについて、Cisco はノーコメントを貫いている。 しかし、同社は、「 Cisco の先進性は、多数のオープンソース・プログラムでリーダーを務めているところにもあり、そこには Open Compute Project も含まれる」と、私たちに答えている。
 
SEE ALSO:  Why Cisco Has Showered These 3 Men With Billions Of Dollars
 
ーーーーー
open-computeこのポストは、2014年12月のものであり、この後に続くコンセプトとして、すでに 6-pack が登場しています。 ここで紹介されている Wedge と Fabric をセットにしたものですが、それ自体も SDN のためのホワイトボックスという位置づけになります。すでに、Pluribus というスタートアップが動き出しているようです。 この会社は、長年にわたり Cisco の幹部を務めていた Kumer Srikantan に率いられ、Yahoo の創業者である Jerry Yang に支援され、$50 million を調達しているとのことです。 同社のプロダクトは、Facebook の Wedge と同様のスタイルで構築され、市販のコンポーネントでハードウェアを構成し、独自のオープンソース・フレーヴァーのソフトウェアを有しているようです。 まさに、OCP デザインを活用したビジネス・モデルというわけです。_AC Stamp
ーーーーー
<関連>
Open Compute : Summit 2015:ついに Apple が正式参加!
Facebook 第四艦隊 Iowa DC が、ネットワークを刷新して出撃!
Facebook と OCP から、Wedge という名の オープン・スイッチが発表された!
Facebook は Open Compute のおかげで、3年で 1200億円も節約できた!
無印サーバー:Quanta は出荷量の 90% 以上:Wiwynn は前年比で 100% 増
 

Comments Off on Facebook の ネットワーク環境:そこに Cisco の支配は有り得ない

SDN の調査: このマーケットは、年率 90% で成長していく

Posted in On Monday, SDN by Agile Cat on October 6, 2014

Software Defined Networking (SDN): Growing at a Blistering Rate of 90 Percent Annually
http://wp.me/pwo1E-7Vq

By Dick Weisinger – September 25th, 2014
http://formtek.com/blog/software-defined-networking-sdn-growing-at-a-blistering-rate-of-90-percent-annually/

_ formtek

The Software Defined Network (SDN) market will grow from just $960 million in 2014 to $8 billion by 2018, at an annual growth rate of 90 percent, predicts IDC.  That’s an incredible rate of growth.

Software Defined Network (SDN) のマーケットだが、2014年の時点では、わずか $960 million に過ぎないが、90% という年間成長率で伸び続け、2018年には $8 billion にいたると、IDC は予測している。つまり、信じられないほどのスピードで、成長していくことになる。

Leading vendors in this market include Cisco Systems (CSCO) and VMware (VMW).  Others also in the market include Big Switch, Brocade (BRCD), Dell, Extreme Networks (EXTR), Flextronics, Hewlett-Packard (HPQ), Huawei, Juniper Networks (JNPR), and Oracle (ORCL).

このマーケットをリードするベンダーとしては、Cisco Systems (CSCO) と VMware (VMW) の存在が挙げられる。また、Big Switch および、Brocade (BRCD)、Dell、Extreme Networks (EXTR)、Flextronics、Hewlett-Packard (HPQ)、Huawei、Juniper Networks (JNPR)、Oracle (ORCL) なども、そこには含まれる。

Factors that are driving the growth in the SDN market include:

  • Increasing adoption of cloud applications and services by businesses
  • Increased interest in the software-defined datacenter and the converging of computation, storage and networking
  • Increased demand for networks to be more flexible and to be able to support rapidly changing technologies like mobility, big data, and the Internet of Things (IoT)

このように、SDN マーケットを成長させていく要因としては、以下の項目が挙げられる:

  • クラウド上のアプリケーションおよびサービスを採用する企業が増えている。
  • Doftware-Defined Datacenter および、コンピューティング/ストレージ/ネットワークの集約に関する関心が高まっている。
  • より柔軟なネットワークに対する需要が高まっている。 つまり、Mobility/Big Data/IoT といった類の、新たなテクノロジーへの迅速な対応が求められている。

Rohit Mehra, Vice President, Network Infrastructure at IDC, said that “SDN is taking center stage among innovative approaches to some of the networking challenges brought about by the rise of the 3rd Platform, particularly virtualization and cloud computing.  With SDN’s growing traction in the datacenter for cloud deployments, enterprise IT is beginning to see the value in potentially extending SDN to the WAN and into the campus to meet the demand for more agile approaches to network architecture, provisioning, and operations.”

IDC の VP Network Infrastructure である Rohit Mehra は、「 SDN は、とりわけ仮想化とクラウドの台頭によりもたらされた、いくつかに革新的なアプローチにおいて、つまり、第三のプラットフォームとしてのネットワークへの取り組みにおいて、主役の座を得ようとしている。 エンタープライズ IT は、クラウドをディプロイするデータセンター内で、SDN の成長力を活用し、また、WAN と社内に拡大することの、価値を見出し始めている。 つまり、それにより、ネットワークのアーキテクチャプロビジョニング/オペレーションで必要とされる、より迅速な対応が実現されていく」と、述べている

ーーーーー

昨年の10月に、「 SDN はテクノロジーではない : ユースケースとして捉えるべきだ 」という抄訳をポストしましたが、おそらく、ユーザー側は SDN で変化するものを知りたがり、ベンダー側は SDN で何を変えて欲しいのかを知りたがるという、なかなか出口の見つからない、堂々巡りが繰り返されていたのだろうと推測します。 もちろん、そこには、より柔軟なネットワークという合意があるのですが、何のためのという、最後のピースが見つからなかったのでしょう。 そして、SDN の内側ではなく外側に点在する、そのピースが見つかり始めたのだと、この記事は伝えているように思えます。

ーーーーー

<関連>

Open Source の調査: OSS の人気 Top-5 は? OSS が選ばれる理由は?
Technology の調査:IBM による 7 NANO チップとポスト・シリコンへの挑戦
Cloud Storage の調査:ストレージ・コストは、無償化へ向けて下がり続けるだろう
Security の調査: より優れたメールの暗号化を、大手プロバイダーが提供し始めている
Government の調査: 米政府がクラウドを活用すれば、年間で約2兆円が節約できる

Comments Off on SDN の調査: このマーケットは、年率 90% で成長していく

SDN はテクノロジーではない : ユースケースとして捉えるべきだ

Posted in Data Center Trends, Network, SDN, Strategy by Agile Cat on October 10, 2013

SDN Is Not a Technology, It’s A Use Case
http://wp.me/pwo1E-6Ly

Posted by
Greg Ferro – August 07, 2013
http://www.networkcomputing.com/data-networking-management/sdn-is-not-a-technology-its-a-use-case/240159609

_Network Computing

Commentators on software defined networking (SDN) often point out that no one has deployed SDN, or you that can’t buy SDN today. At a recent IETF meeting, someone stood up and said SDN stands for "Still Does Nothing."

SDN(Software Defined Networking )を取り巻くコメンテーターたちは、大半のケースにおいて、依然として誰もディプロイしておらず、どこへ行っても買い求めることはできないと指摘している。先日の IETFミーティングでは、SDN は Still Does Nothing の略だと、立ち上がって発言するオーディエンスもいたほどである。

This attitude fails to understand SDN is not a technology. It’s more practical to define SDN as a bunch of use cases that use many technologies to meet specific customer needs. Think of it in terms of the data center. Sometimes people will talk about purchasing a "data center network," but that phrase encompasses a variety of different technologies and functions. Do you mean top-of-rack and core Ethernet switches? MLAG and TRILL capability? QoS, MPLS or virtual contexts? Do you mean the OSPF and STP pathing software?

このような態度は、SDN がテクノロジーではないことを、理解できないところから生じる。つまり、特定の顧客のニーズを満たすために、数多くのテクノロジーを使用するユースケースの固まりとして、SDN を定義する方が実用的なのである。それについて、データセンターの観点から考えてみよう。 時として、人々は、"Data Center Network" の購買について話をするが、このフレーズが網羅するものは、それぞれのテクノロジーと、さまざまな機能という、とても幅広いものとなる。あなたは、トップ·オブ·ラックと、コア・イーサネット・スイッチを想像するだろうか?それとも、MLAG と TRILL のキャパシティ?QoS あれば、MPLS もあり、仮想コンテキストもある。さらに言えば、OSPF と  STP の Pathing ソフトウェアなのか?

Thus, a more reasonable discussion of SDN should focus the features it will provide and the technologies required to build it. Broadly speaking, SDN features deliver multi-tenancy, mobility, scalability and reliability on our networks. What differentiates SDN from existing networking is the use of controllers, APIs and software applications to achieve these features.

このように、SDN について合理的に議論を進めるなら、それが提供する機能と、それを構築するために必要なテクノロジーに、フォーカスしていくべきである。大まかに言えば、SDN の機能とは、それぞれのネットワーク上で、Multi-Tenancy/Mobility/Scalability/Reliability を提供することにある。そして、SDN と既存ネットワークの区別は、これらの機能を達成するために、Controller/API/Software Application を用いるところにある。

On the technology side, how you build and deploy SDN will vary according each network and the use cases of that network. Some networks will use OpenFlow, other will use SPB, TRILL, OSPF and others. The SDN platform you deploy might use the OpenDaylight controller or the BigSwitch Networks controller that interfaces to OpenStack. Or your SDN might be a full stack approach, such as Juniper’s Contrail V, Nuage Networks’ VSP or VMware’s NSX, that provides a different type integration and feature set to manage virtual switches in the hypervisor. For service providers, it’s likely that IETF efforts around I2RS will further enable "programmable MPLS" for WAN management to extend the tools that are available today, such as Cisco’s Cariden. And a careful look at Metro Ethernet shows that SDN functions have already arrived with SDH/Sonet already supporting external configuration.

テクノロジーの面から見ると、SDN を構築/ディプロイする方法は、それぞれのネットワークに依存するものとなり、また、対象となるネットワークのユースケースごとに異なるものとなる。 一部のネットワークでは OpenFlow が使用されても、他では SPB/TRILL/OSPF などが使用される。そしてデプロイすることになる SDN プラットフォームが、OpenStack とインターフェイスを取るにしても、そのコントローラは OpenDaylight にもなれば、BigSwitch Networks にもなるだろう。さもなければ、あなたの SDN は、Juniper の Contrail V や、Nuage Networks の VSPVMware の NSX といった、フル・スタックのアプローチを取るかもしれない。それらのアプローチでは、ハイパーバイザーの仮想スイッチを管理するために、それぞれのタイプに応じた統合が行われ、それぞれの機能が提供される。サービス・プロバイダーの視点から見ると、I2RS の関連する IETF での取り組みに似ている。つまり、Cisco の Cariden のように、現時点で利用が可能なツールを、WAN 管理のための "programmable MPLS" へと発展させていく可能性もあるのだ。そして、Metro Ethernet で注視すべきことは、SDN 機能が SDH/Sonet にまで到達し、すでに外部のコンフィグレーションをサポートしている点である。

And for more specialized or niche requirements, you can develop your own application to use proprietary APIs such as Cisco’s onePK for precise control over the network and its changes.

そして、さらに特化した要件や、ニッチな要件においては、このようなネットワークと、その変化を的確に制御する独自アプリケーションを開発し、そこで、Cisco の onePK のようなプロプライエタリ API を使用することも可能だ。

All of these approaches are Software Defined Networking. While some of the technology components are shipping today (as products or even updates to existing technology) many others are still under development. Vendors developing products seek feedback from the marketplace to determine if those products meets customer needs. This gives vendors insight into product viability and validates the investment plan. However, it also creates a good deal of uncertainty, which in turn generates a lot of noise that can distract from actual outcomes that these products create.

これら、すべてのアプローチが、SDN なのである。 いくつかのテクノロジー・コンポーネントが、現時点で出荷されている(新たなプロダクトや、既存テクノロジーのアップデートなど)。しかし、その一方では、依然として数多くのものが開発中である。 開発ベンダーたちは、自身のプロダクトが顧客のニーズを満たしているかどうかを判断するために、マーケットからのフィードバックを求めている。それによりベンダーたちは、そのプロダクトの生存能力に関する洞察を得て、投資の計画を検証していく。しかし、予期せぬビジネスが生まれることもある。 それにより、それらのプロダクトがもたらす、実質的な結果を曖昧にするという、数多くのノイズも発生していくだろう。

SDN is a major inflection in the curve of networking technology, but it’s not a revolutionary product that solves all of today’s challenges. Very few ideas in IT are new, and SDN is no exception. SDN is combining the useful features of existing products in new ways and adding some control methods with software interfaces that change configuration and operations. That’s not a single thing, it’s a strategy. In the same way that you don’t buy a "Data Center Network" today, you won’t buy "Software Defined Networking" tomorrow.

SDN は、ネットワーキング・テクノロジーの変遷に、大きな抑揚をもたらすが、今日における全ての課題を解するという、画期的なプロダクトではない。IT における新しいアイデアは、きわめて少なく、また、SDN も例外ではない。SDN は、既存プロダクトにおける有用な機能を、新しい方式で組み合わせている。 そして、コンフィグレーションとオペレーションを変更するための、ソフトウェア・インターフェイスを用いて、いくつかのコントロール・メソッドを追加している。それは、単一のものではなく、ストラテジーとして見なすべきだ。 つまり、現時点で "Data Center Network" を購入できないのと同じ理由で、明日になっても "Software Defined Networking" は購入できないのだ。

ーーーーー

imageとても刺激的なタイトルのポストなのですが、ずっと手つかずで、翻訳リストに残されたままになっていました。 訳してみて、Data Center Network との対比は分り易く、また、SDN の概念も自分なりに整理された感じがします。 なお、著者である Greg Ferro さんは、フリーランスの Network Architect and Engineer とのことで、Email および Twitter @etherealmind でコンタクトが可能とのことです。また、彼がホストしている、EtherealMind.com Packet Pushers というブログも、ご覧くださいとのことです。image

ーーーーー

<関連>

ネットワークの仮想化へ向けた論証 – Ben Cherian
Brocade が Vyatta を買収
Cisco は vCider を買収し、分散クラウドを加速する
Apigee は、テレコムのための SDN を考える
Cisco が占有する スイッチ と ルーターの世界 : それを示す1枚のチャート

やったぜ! Facebook の Open Compute Project がオープン・スイッチに挑戦だ!

Posted in .Selected, Data Center Trends, Facebook, Network, Open Compute by Agile Cat on May 14, 2013

Heck yeah! Facebook’s Open Compute Project is making an open source switch
http://wp.me/pwo1E-66u
By
Stacey Higginbotham
http://gigaom.com/2013/05/08/heck-yeah-facebooks-open-compute-project-is-making-an-open-source-switch/

_ Gigaom

Summary: Not content with open sourcing the server and storage hardware inside data centers, Facebook’s Open Compute Project has teamed up with others to build an open source top of rack switch. Here’s why it matters.

Summary: データセンター内のサーバーおよびストレージといったハードウェアを、オープンにするだけでは満足しないようだ。 Facebook の  Open Compute Project は、ラックのトップに置かれるスイッチをオープンソースで構築するために、そのメンバーたちと協力し始めた。なぜ、それが重要なのが、説明しよう。

ーーーーー

The Open Compute Project, which Facebook launched a little more than two years ago, has decided that utterly disrupting the server and storage market isn’t enough. On Wednesday, it said it would solicit input on an open source top-of-rack switch.

2年と少し前に Facebook が立ち上げた Open Compute Project は、サーバーとストレージの市場を完全に破壊するだけでは、充分ではないと判断したようだ。 そして、この水曜日(5/8)には、オープンソースの top-of-rack switch に関して、仲間を募ると述べた

The project, in a presentation by Frank Frankovsy at Interop, said it was taking a slightly different tack with its design, deciding to get input from others before actually making and releasing the hardware to the community. However, just because the hardware isn’t designed yet, Facebook isn’t going to twiddle its thumbs for a traditional multi-year design cycle. Frankovsky told me in an interview that he expects the hardware to be out in 9 to 12 months.

Interop での Frank Frankovsy のプレゼンテーションによると、このコミュニティのために、実際にハードウェアを作りリリースを解する前に、他者からの意見を取り入れるという点で、これまでの方針とは少し異なる取り組みになる。ただし、まだハードウェアがデザインされていないからといって、Facebook がノンビリと、従来からの複数年にまたがるデザイン・サイクルに甘んじるつもりはないようだ。Frankovsky は私とのインタビューで、9 〜 12ヶ月の間で、出荷できるようにしたいと答えている。

“We have built these islands of openness in the data center but the last element, and the one that was connecting the compute and storage, was the network,” said Frankovsky. “And there is a lot of pent-up passion out there for breaking open this appliance model.”

「 私たちは、データセンターの中に、オープンな島々を構築してきたが、また、最後の要素が残っている。 それは、コンピューティングやストレージのためのコネクションであり、つまりはネットワークのことなのだ。そして、周囲を見れば、現行のアプライアンス・モデルをこじ開けようとする、爆発寸前の情熱にあふれている」と、Frankovsky は発言している。

Networking is the last bastion of proprietary profits

Prepare to be disaggregated, switch!

For those who don’t dwell in data centers, the top-of-rack switch is the networking gear that sits on the top of a rack of servers directing traffic between those boxes and between the other racks in the data center. While the networking world is all aflutter over the promise of OpenFlow and software-defined networking, very little real progress has been made in building switches for the webscale data center.

データセンターの住人ではない人のために説明しておくが、top-of-rack スイッチとは、サーバー・ラックの最上部に置かれるネットワーク機器のことであり、データセンター内のラック間で、トラフィックをやり取りするボックスとして提供されている。 ネットワークの世界は OpenFlow と SDN (software-defined networking) の約束に翻弄されているが、Web スケールのデータセンターにおけるスイッチ群の構築については、きわめて小さな進歩しか達成されていない。

Google, a few years back, had famously issued a request for a new type of switch that would fit its very specific scaled-out needs and no one responded. Now the search giant makes its own hardware. But soon after that, Andy Bechtolsheim saw the need for Google-like speeds and scale and started Arista, a switch company that has dominated in the webscale, financial and high-performance switching space. Meanwhile, at the lower end, Cisco’s cheaper Nexus line of switches have done really well.

数年前の、とても有名な出来事だが、スケールアウトのニーズに合った新しいタイプのスイッチを、Google が要求していたのだが、どのメーカーもそれに応えなかった。 したがって、このサーチ・ジャイアントは、いまでは自身でハードウェアを作る状況になっている。 しかし、その直後に Andy Bechtolsheim が、Googleが言うようなスピードとスケールの必要性を理解し、Arista を立ち上げた。 同社は、Web スケールや金融が、高性能スイッチング・スペースを支配する会社になった。 その一方で、ローエンドでは、Cisco の安価な Nexus ラインナップが頑張っている。

Facebook’s Najam Ahmad.

Yet, these options aren’t palatable for Frankovsky or Najam Ahmad of Facebook (Ahmad will be at our Structure conference in June discussing more about Facebook’s networking strategy). On the existing product side, Frankovsky is frustrated by hardware that doesn’t play nicely at scale. He specifically mentioned that the side venting of heat on switches means he can’t place them right next to another switch. Ahmad, who is in charge of the social-networking giant’s network, is concerned about getting out of the proprietary OS model.

しかし、こうした選択肢は、Facebook の Frankovsky や Najam Ahmad( Structure conference in June で Ahmad は、Facebook のネットワーク戦略についての詳細を語る)の好みではない。既存のプロダクトに対して Frankovsky は、スケールを上手く達成できないと不満をつのらせていた。とりわけ彼は、スイッチで排熱サイド・ベントにより、スイッチの横に何も置くことができないことを指摘している。また、このソーシャル·ネットワーキングの巨人において、ネットワークを担当している Ahmad は、プロプライエタリ OS モデルからの脱出を検討している。

“We want it to be OS-agnostic so we can use one from our existing provider or build our own,” he said. He added that he’d prefer an open Linux-based implementation. These proprietary OSes — Cisco has IOS, Juniper has Junos and Arista has EOS — are one of the reasons that companies are locked into one networking gear provider. They are also stuck using proprietary code to make changes.

「 私たちは、OS の種類に気遣いしたくない。 そうすれ、既存のプロバイダからのものを使用することも、独自に構築することも可能になる」と、彼は発言している。そして、オープンな Linux ベースの実装を好むだろうと、付け加えている。 プロプライエタリな OS( Cisco の IOS/Juniper の Junos/Arista の EOS)は、ユーザー企業を特定のネットワーク・ギア・プロバイダにロックインさせる、もう1つの理由でもある。そして、それらの企業も、プロプライエタリなのコードを変更することで、立ち往生している。

Who will be the Red Hat of the networking OS?

Networking cables along the ceiling at Facebook HQ.

If you are chock full of technically savvy people, losing the agility that comes from writing your own code as well as paying higher prices for the proprietary hardware and software combination is probably maddening. Hence Facebook’s interest in the open source OS. Of course, building out the underlying hardware is only the first step, the next will be supporting an OS that runs on top of that system.

たくさんの、テクノロジーに精通した人々を有する場合、独自のコードからもたらされるアジリティの喪失だけではなく、プロプライエタリなハードウェアとソフトウェアの組み合わせに対して、高い費用を支払うことは腹立たしいことだろう。それ故に、Facebook の関心はオープンソース OS に集約される。もちろん、基礎となるハードウェアを構築することは単なる最初のステップであり、そのシステム上で動作する OS のサポートが次に続く。

While Facebook might build its own OS, not every company will want to do that, and Facebook may not open source its own networking OS if it ever makes one. That leaves a market opportunity. Perhaps a firm like Arista might move in here with an open source version of EOS, although given that Arista uses merchant silicon in its boxes, putting up an open-source version of its software would eat into its margins.

Facebook は、独自の OS を構築するかもしれないが、すべての企業が、必ずしもそれを構築するとは限らない。 そして、Facebook がグループの一員でなければ、その独自ネットワーク OS がオープンにならない可能性もある。それにより、マーケットにはチャンスが残される。Arista のような会社は、EOS のオープンソース版を携えて、ここに移動するかもしれない。しかし、その BOX で市販のシリコンを使用し、そこにソフトウェアのオープンソース版を入れて、マージンを得ることが前提となるだろう。

This is neither Open Flow nor SDN

But let’s go back to the box. Facebook is working with Broadcom, Intel, The Open Daylight Foundation, the Open Networking Foundation and Big Switch as some of its collaborators on this project. The box itself might run x86 hardware or a proprietary ASIC, according to Frankovsky. As for the protocols, Open Compute is going to see what the other collaborators want.

ここで BOX の話に戻ろう。 Facebook は、このプロジェクトへの協力者として、Broadcom/Intel/The Open Daylight Foundation/Open Networking Foundation/Big Switch などと協調している。 Frankovsky の話によると、その BOX 自体は、x86 ハードウェアやプロプライエタリな ASIC を走らせることになりそうだ。 そして、プロトコルとしては、他の協力者たちが欲するものを、Open Compute が見定めていくことになる。

Software-defined networking

But for those wondering about Open Flow support, it’s likely. Frankovsky said that the Open Networking Foundation asked Facebook to get involved via the Open Compute Project with making open networking hardware. While Frankovsky and Ahmad didn’t cop to it, I know there has been frustration in many areas of the webscale and networking world that the promise of commodity hardware that Open Flow could offer has not really hit the market in a way that offers the most flexibility for data center operators.

しかし、Open Flow のサポートについては、疑問を抱くものにいるかもしれない。Frankovsky が言うには、オープンなネットワーク・ハードウェアを作ること関連して、Open Networking Foundation は Open Compute Project を介したかたちで、Facebook に参加を求めてきたようだ。 Frankovsky と Ahmad は、それに迎合しなかった。私が認識しているのは、Web スケールとネットワークの世界において、コモディティ・ハードウェアに対する約束がないという、不満が募っているという状況である。つまり、Open Flow は、実際のデータセンター事業者に対して、最大の柔軟性を提供するという点で、マーケットの要求を満たしていないのだ。

Frankovsky said that the ONF approached Open Compute (Facebook is a founding member of both organizations) in part because it believed it could move quickly on this. And it will. But it’s worth noting that this announcement is about an open source top-of-rack switch, not a controller and not some type of software-defined networking play.

また、ONF が Open Compute にアプローチしてきたのは(Facebook は双方の設立メンバーである)、彼らの活動を迅速に進めたいからだとも、Frankovsky は述べている。もちろん、それは可能だろう。しかし、今回のアナウンスメントが、何らかのコントローラや SDN ではなく、オープンソースの  top-of-rack switch を示していることに注目すべきだろう。

Other companies may take this box and perhaps an open source OS if one is developed, and then layer on some type of controller software to make a software-defined network, but this is just a box.

ここで説明するものが開発されるなら、おそらく他の企業は、おそらく BOX とオープンソース OS を採用した後に、SDN を構築するためのコントローラ・レイヤに取り組むだろうが、ここでの話は BOX に限られたものである。

That being said, this is a box that could seriously disrupt the existing players in networking, from giants like Cisco and Dell all the way to smaller startups like NoviFlow or even Pica8. Much like Facebook is changing the server market with Open Compute, we’ll see if it can tweak the model and do the same in networking.

そうは言っても、Cisco や Dell などの大手から、NoviFlow や Pica8 といったスタートアップにいたるまで、この BOX がもたらす破壊は、かなり深刻なものになるだろう。それは、Facebook が Open Compute を用いて、サーバー市場を変革しようとする流れと同じだ。 これまでのモデルに手を加え、ネットワークに変革をもたらすことができるのかどうか、私たちは検証していくことになるのだろう。

Related research

ーーーーー

imageOpen Compute Project の中でも、最もホットな動きです。以前から、誰もが思っていた、ネットワーク・スイッチのオープン化が始まります。すでに、無印サーバーが、かなりのシェアを占めているわけですが、こうした実績を背景に、今度はスイッチに取り組むことになります。 Arista の Andy Bechtolsheim は、Open Compute がファンデーション化されたときから、ボード・メンバーを務めているので、いつかは、こういう日がくるのだろうと感じていた人も多いかと思いますが、予想以上に早かったというのが Agile_Cat の感想です。そして、文中にもあるように、年内もしくは来年の初めには、何らかの結果が出てくるとのことです。 とても、楽しみですね。image141

ーーーーー

<関連>

Facebook の空母のような DC: 効率/温度/湿度 を Web モニタリング!
OCP データセンターと、高温多湿気候との関係について
Facebook が Iowa にもデータセンターを作る? これも デカイ!
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
Intel と Facebook が実現する、100 Gbps でラックを貫く光学素材とは?

Comments Off on やったぜ! Facebook の Open Compute Project がオープン・スイッチに挑戦だ!

大手クラウド社員たち: うちの会社を友人に勧められるか? うちの CEO を高く評価できるか?

Posted in Amazon, Google, Microsoft, Oracle, Weekend by Agile Cat on March 24, 2013

The Best Cloud Companies and CEOs to Work For in 2013
http://wp.me/pwo1E-5Ql
by Louis Columbus on February 22, 2013
http://softwarestrategiesblog.com/2013/02/22/the-best-cloud-companies-and-ceos-to-work-for-in-2013/

image

Hiring great people and creating a culture of achievement that is fun, focused and able to get challenging tasks done is not an easy task.

素晴らしい人材を採用し、興味/集中/挑戦というカルチャーのレベルを引き上げることは、容易な職務ではない。

Keeping that culture strong and focused on the customer takes a unique leader that consistently earns trust and respect.  Those are the qualities I think of whenever I’m asked to recommend the best cloud computing companies to work for.  Using the scores from Glassdoor.com I’ve put together the table below comparing cloud computing companies and when available, the percentage of employees who approve of their CEO.

そして、ユーザーに向けて、そのカルチャーを強化していくためには、継続的な信頼と敬意を集めることが可能な、ユニークなリーダーを必要とする。  それが、働く上で最高のクラウド・コンピューティング企業について、私が尋ねられるときに考える、CEO の資質である。  Glassdoor.com からのスコアを用いて、クラウド・コンピューティング企業を較するテーブルを作ってみたが、それらの企業の CEO に対する、従業員からの信任も、可能な範囲で加えてみた。

If you’re not familiar with Glassdoor, it’s a website that gives employees the chance to rate their companies and CEOs anonymously, along with reporting salaries.  Friends in the Human Resources community tell me it’s an effective recruitment site as well.

Glassdoor を知らない人のために説明すると、それぞれの勤先と CEO を評価し、給料を教えあうという Web サイトとなる。 もちろん、匿名であるため、それらの企業と CEO に知られることもない。Human Resources コミュニティの友人たちが言うには、効果的なリクルート・サイトでもあるようだ。

Cloud computing companies are sorted based on the percentage of employees would recommend their company to a friend.  I added in CEO scores to get a sense of which companies have a significant gap between morale and the perception of the CEO.  As of today according to employee rankings, Microsoft has the largest gap between percentage of employees who would recommend the company to a friend (77%) and  CEO rating (48%).

それそれのクラウド・コンピューティング企業は、従業員たちが友人に勧められるという、スコアのパーセンテージにより並べられている。そして CEO のスコアは、彼らのやる気と CEO の能力を隔てる、ギャップを示すために加えたものだ。  今日の時点における、それぞれの従業員たちの評価によると、たとえば Microsoft の場合は、77% が友人に勧められるとしているが、CEO に対しては 48% という評価が下され、そのギャップが大きいと分かる。

The highest rated CEOs you’d want to work for based on their Glassdoor ratings are as follows, with their ratings shown as of today:

あなたが、一緒に働きたいと思うだろう、Glassdoor でスコアの高い CEO は、以下のとおりである:

Jyoti Bansal of AppDynamics (100%)
Drew Houston, Dropbox (100%)
Aneel Bhursi, Workday (100%)
Scott Scherr, Ultimate Software (97%)
Jim Whitehurst, Red Hat (97%)
Larry Page, Google (95%)
Aaron Levie, Box (94%)
Marc Benioff, Salesforce (93%)
Tom Georgens, NetApp (92%)Mark Templeton, Citrix Systems (91%)
Bill McDermott & Jim Hagemann Snabe, SAP (90%)

ーーーーー

image会社に対する評価というのは、仕事の楽しさや辛さ、そして、報酬、休日、労働時間といった、それぞれの社員にとって、きわめて現実的な側面からの採点なんでしょうね。 そして、CEO に対する評価というのは、自分が頑張るためのモチベーションを、どれだけ与えてくれるのかという、心の面からの採点なのでしょうか?  日本でも、こういうランキングを行えば良いのにと、思ってしまいますよね。image

ーーーーー

<関連>

SimCity の新バージョンについて、あの Om Malik さんが語る!
Disney の CEO に、つまらん映画ばかりだと、電話で文句ばかり言っていた Jobs
Apple に負けるな : Google Store が準備されている?
Facebook の本が出る:Zuck の姉さん Randi が書き手だ
Google Street View でグランド・キャニオン探検に出かけよう!

LTE で 超高速ワイヤレス : ブロードバンド接続も不要になる?

Posted in .Selected, Mobile, Network, Research, Telecom by Agile Cat on February 24, 2013

BII REPORT: How 4G LTE Is Transforming The Mobile Ecosystem
http://wp.me/pwo1E-5Gs

Business Insider | Feb. 14, 2013
http://www.businessinsider.com/bii-report-how-4g-lte-is-transforming-the-mobile-ecosystem-2013-2

_ Business Insider

The dream of digital media at our fingertips has historically been hampered by slow wireless networks and disparate standards.

フィンガー・チップにおけるデジタル・メディアの夢は、低速のワイヤレス・ネットワークと、足並みの揃わない標準の歴史により、ずっと妨げられてきた。

クリックで拡大 ⇒

But the entire mobile ecosystem took a big step forward when Verizon, the largest U.S. carrier, launched LTE in early 2010. Modern smartphones are increasingly engineered to take advantage of LTE network speeds.

しかし、全体的なモバイル・エコシステムは、アメリカ最大のキャリアである Verizon が、2010年初頭に LTE を提供し始めたときから、大きく前進している。そして、LTE ネットワーク・スピードを活用しようとする、最新スマートフォンの開発が、さらに促進されている。

In a recent report from BI Intelligence, we analyze the impact LTE can have on consumer behavior, device preferences, and data usage and pricing, explain how LTE has the potential to add new layers of functionality to entire app categories such as games and maps, and look at the build out and availability of LTE in the U.S. and around the world.

BI Intelligence最新レポートでも、LTE が影響を与える、消費者の行動および、デバイスに対する好み、そして、データの利用量と通信料について分析してきた。そして、ゲームやマップといったアプリ・カテゴリー全般に対して、LTE が新しいテクノロジー・レイヤを加えていく、状況と可能性についても説明してきた。さらに、アメリカおよび世界の各国で、LTE 網が構築され、利用されていく様子にも注目してきた。

Here’s a brief overview of how LTE is transforming the mobile ecosystem:

以下は、どのようにして、LTE がモバイル・エコシステムを変えていくのかという、全体像に関するサマリーである:

ーーーーー

TAG index先週にポストした、『 Google の ハイエンド・ラップトップ : Chromebook Pixel が登場 』という抄訳では、このマシンに 4G LTE がビルトインされていると紹介されていました。こう言う、新しいテクノロジーを享受するのは、なにも モバイルだけではなく、新世代のラップトップも、というわけですね。 そして、家庭では、ブロードバンド・ルーターから LTE ルーターへの切り替えが起こっていくのでしょうか? そうなると、ISP の仕事は どうなるのでしょうか? ・・・ と心配は尽きませんが、この世界に安住の地はないと思えば、すべて納得できることなのでしょう。__AC Stamp 2

ーーーーー

<関連>

Cisco 予測 2017年 : 世界のモバイル・トラフィックは 11.2 EB/月
Docomo と Boingo が、Wi-Fi ホット・スポットで提携
Cisco 予測 2016年: DC トラフィックは 6.6 Zetta Bytes に
モバイル・ローミングの売上は、2017年までに $80 billion を超える
Apigee は、テレコムのための SDN を考える

 

Facebook と Open Compute は、$55B のサーバー市場を解体/再生する

Posted in .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 5, 2013

Facebook and Open Compute just blew up the server and disrupted a $55B market
http://wp.me/pwo1E-5CM

Jan 16,2013 – By
Stacey Higginbotham
http://gigaom.com/2013/01/16/facebook-and-open-compute-just-blew-up-the-server-and-disrupted-a-55b-market/

_ Gigaom

photo: Stacey Higginbotham

Summary: Facebook took aim at the hardware business back in April 2011 with the launch of the Open Compute open hardware program, and Wednesday it fired the killing blow at the $55 billion server business.

Facebook は 2011年4月の時点で、オープンなハードウェア・プログラムである Open Compute を立ち上げたときから、ハードウェア・ビジネスをターゲットにしている。 そして、この水曜日(1/16)には、$55 billion のサーバー・ビジネスに、致命的な打撃を与えるところまで進んできた。

ーーーーー

The launch of two new features into the Open Compute hardware specifications on Wednesday has managed to do what Facebook has been threatening to do since it began building its vanity-free hardware back in 2010. The company has blown up the server — reducing it to interchangeable components.

Open Compute ハードウェア仕様に取り込まれた2つの新しい機能により、2010年に Facebook が質素なハードウェアを作り始めたときから、脅威とされてきたものが推進されていく。同社は、サーバーの概念を拡大し、交換可能なコンポーネントに変形してしまったのだ。

With this step it has disrupted the hardware business from the chips all the way up to the switches. It has also killed the server business, which IDC estimates will bring in $55 billion in revenue for 2012.

このステップにより、チップからスイッチにまで至る、ハードウェア・ビジネスが崩壊する。つまり、IDC が 2012年で $55 billion の収益があると推測する、サーバー・ビジネスが死に至るのである。

It’s something I said would happen the day Facebook launched the Open Compute project back in April 2011, and which we covered again at our Structure event last June when we talked to Frank Frankovsky, VP of hardware and design at Facebook. What Facebook and others have managed to do — in a relatively short amount of time by hardware standards — is create a platform for innovation in hardware and for the data center that will allow companies to scale to the needs of the internet, but also to do so in something closer to web-time. It will do this in a way that creates less waste, more efficient computing and more opportunity for innovation.

それは、2011年4月 の時点で Facebook が、Open Compute プロジェクトを立ち上げた日に、これから起こるであろうと予測した何かであり、また。昨年6月の Structure イベントでも、Facebook の VP of Hardware and Design である Frank Frankovsky が、話したてくれたものである。Facebook や他のメンバーたちが、何に成功したかというと、ハードウェアとデータセンターにおけるノベーションのためのプラットフォーム作りである(比較的に短い時間の中でハードウェアを標準化する)。つまり、それらの企業は、インターネットのスケールを達成するだけではなく、Web が進化していくスピードに合わせて、物事を処理していくだろう。それは、無駄を省き、コンピューティングの効率を高め、イノベーションの機会を増やすという、一連の流れの中で進められていく。

New features for a next-gen server

New Open Compute
technologies on a rack.

So what is Facebook doing? Facebook has contributed a consistent slot design for motherboards that will allow customers to use chips from any vendor. Until this point, if someone wanted to use AMD chips as opposed to Intel chips, they’d have to build a slightly different version of the server. With what Frankovsky called both “the equalizer” and the “group hug” slot, an IT user can pop in boards containing silicon from anyone. So far, companies including AMD, Intel, Calxeda and Applied Micro are committing to building products that will support that design.

そこでだが、Facebook は何をしているのだろう? Facebook がコントリビュートしている、マザーボードのための一貫したスロット・デザインにより、そのユーザーたちは、あらゆるベンダーから供給されるチップを、利用できるようになる。 これまでの常識は、Intel チップに替えて AMD チップを使いたいなら、それに合わせて、少し異なるサーバーを構築する必要があったはずだ。 Frankovsky が 『 the equalizer 』および『 group hug 』と呼ぶスロットを用いれば、シリコン・チップを搭載した各種のボードが、あらゆる IT ユーザーにより簡単に実装される。 これまでのところ、AMD/Intel/Calxeda/Applied Micro などの企業が、このデザインをサポートするためのプロダクト構築をコミットしている。

The other innovation that’s worth noting on the Open Compute standard is that Intel plans to announce a super-fast networking connection based on fiber optics that will allow data to travel between the chips in a rack. This 100 gigabit Ethernet photonic connector is something Intel plans to announce later this year, and Frankovsky can’t wait to get it into production in Facebook’s data centers.

Open Compute スタンダードにおいて、指摘しておく価値のある他のイノベーションとしては、Intel が発表した超高速ネットワーク・コネクションが挙げられる。 それは、光学ファイバーをベースとし、チップ間でのデータ転送を、ラック内で実現していくものとなる。 この、100 GBit イーサネット光学コネクタは、昨年の後半に Intel が発表した計画の一部であるが、Frankovsky は Facebook データセンターのプロダクション・システムで、躊躇することなくそれを利用したいようだ。

I’ve written a lot about how we need to get faster, fiber-based interconnects inside the data center, and the efforts to do so. What’s significant here is not just that this design speeds up chip-to-chip communication. With the right hardware, it runs a rack into a server and makes the idea of a top-of-rack switch irrelevant –something that that Cisco, Juniper and Arista might worry about (although Arista’s Andy Bechtolsheim is helping present this technology at Open Compute, so I imagine he has a plan). It’s also worth noting that only in 2012 did Facebook transition to an all 10 gigabit Ethernet network in its data centers, but now it wants to speed up the interconnects as soon as it can.

機会があるごとに、私が書き続けてきた主張は、データセンター内における高速相互接続の重要性であり、それをファイバー・ベースで推進していく必要性である。そして、このデザインにより、チップ間での高速通信が実現するという点に、限定して考えないことが重要である。 適切なハードウェアを用いることで、サーバー内でラックを走らせるようなアイデアが成り立ち、ラックのトップに配置されるスイッチを無意味なものにしてしまう。Cisco や Juniper、そして Arista には気分を害してほしくないが、そういうことだ。(ただし、Arista の Andy Bechtolsheim は、このテクノロジーの正しさについて Open Compute で後押ししていた。 したがって、何らかのプランを持っていると推測する)。さらに、2012年の時点において Facebook だけが、データセンター内での Ethernet ネットワークを、すべて 10 GBit に移行していることも、指摘すべき価値を持つだろう。しかし、同社は、可能な限り早期に、相互接続の高速化に取り組みたいようだ。

Openness makes the new servers flexible

So what has happened here is significant. Open Compute has managed to give customers — from financial services firms to web properties — a platform on which to build custom and modular servers.

したがって、いま、ここで起こっていることは重要である。 Open Compute は、カスタムでモジュラリティの高いサーバーを構築するためのプラットフォームを、金融から Web に至るまでの幅広い客層に対して提供することに成功した。

A good example of this might be building a house. There are plenty of ways of doing it, from hiring an architect to choosing a plan from a selection offered to you by a developer. That was the former server world — you either went all custom or chose from “plans” provided by Dell and others. But those chosen plans might come with four bathrooms and you might only want three. If you buy 10,000 unneeeded bathrooms, that’s a lot of added cost that brings you no value.

こうした考え方の、良い事例として、家を建てるという行為が挙げられるかもしれない。 そこには、建築士を雇うという選択から、デベロッパーが提供する多様なプランからの選択まで、それそ実現するための数多くの方式がある。そして、従前からのサーバー世界でも、すべてをカスタムなかたちで作るか、あるいは、Dell などから提供されるプランを選ぶという、2つの方式があったはずだ。しかし、あたなは 3つのバスルームが欲しいのだけど、そのプランには 4つのバスルームが組み入れられているかもしれない。もし、必要とされない 10,000のバスルームを購入するなら、価値をもたらさないものに、膨大なコストが生じることになる。

With Open Compute, Facebook showed people how to build houses out of shippping containers. As more and more elements like Group Hug or standard interconnects are added, it’s like you can pick your favorite brand of shipping container and pop it on. Even better, if you want a new bathroom, you can swap it out without ever affecting your bedroom. And for many companies the costs of building and operating these new servers will be less than the mass-produced boxes designed by others.

Open Compute により Facebook が示したことは、搬送用コンテナからパーツを取り出し、家を建てるための方式である。 Group Hug のような要素や、標準的な相互接続が、数多く加えられるにつれて、あなたの好みのブランドから取り寄せたものが、搬送用コンテナで送られてくるようになる。さらに良いことに、あなたがベッドルームに替えて、新しいバスルームを追加したいなら、その差し替えも簡単に行えるのだ。 そして、数多くの企業にとって、これらの新しいサーバーを構築/運用するためのコストは、他社により大量生産されたボックスよりも、安価なものになっていくだろう。

This is great for web-based businesses and anyone that relies on IT. It cuts out waste and it turns what was once a monolithic asset into something that can be upgraded with relative ease and at a lower cost. So when Frankovsky is talking about renting CPUs from Intel, for example, the Group Hug design makes that possible. He can rent CPUs for a workload, and then use those servers for something else without chucking them. He can swap out chip architectures, networking cards and drives at will to put the right mix of storage, network, and compute together for his jobs as they grow and shrink.

それは、Web ベースのビジネスや IT に携わる、あらゆる人々にとって素晴らしいものとなる。 まず、無駄が省かれる。 そして、かつてはモノリシックな資産であったものが、相対的に見て低コストであり、アップグレードが可能な何かに置き換わっていく。 したがって、仮に Frankovsky が Intel から、CPU を借り出そうと交渉するにして、Group Hug のデザインは、それを可能にするのだ。 彼は、あるワークロードのために CPU をレンタルし、それが終わっても放棄すること無く、他の目的を持ったサーバーのために活用できる。 彼は、チップ・アーキテクチャや、ネットワーク・カード、そして各種デバイスを入れ替えることができる。そして、自身の作業のライフサイクルに応じて、ストレージ/ネットワーク/コンピュータなどを、思いのままに、混ぜ合わせることができるのだ。

These servers can’t be provisioned as fast, but what Open Compute has done is create a server architecture that can scale and change as much as the cloud itself does. And it did so without the server guys.

これらのサーバーが、それほど早急に供給されることはないだろう。 しかし、Open Compute が行ったことは、スケールに対応し、また、クラウドの変化に追随し得る、サーバー・アーキテクチャの開発なのである。そして、サーバーの専門家を必要とせずに、それは推進されてきたのである。

Related research

ーーーーー

TAG index2012年 1月 16日・17日に開催された Open Compute Summit での、Stacey Higginbothamさんの取材記事です。 今回のテーマは『 Breaking Up the Monolith 』であり、その背景には、Open Compute に集まった幅広い支持層を取り込んで、よりパワフルなエコシステムを作っていこうという意図があります。その、Asia Pacific のカウンターパートとして、Open Compute Japan も立ち上がりました。 ハードウェア・ビジネスの解体と再生への動きは、もう止まらないところまで来ているようです。image

ーーーーー

<関連>

Open Compute Summit 2013 : エコロジーと Asia Pacific
Facebook は Open Compute を、コ・ロケーションにも適用する
Facebook 革命は、なにをハードウェア産業に強いるのか
Facebook の 巨大 DC を気化熱で冷やす、ミストの秘密について説明しよう
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?

Comments Off on Facebook と Open Compute は、$55B のサーバー市場を解体/再生する

みんなが 注目の SDN/OpenFlow 特集

Posted in .Selected, OpenFlow, SDN by Agile Cat on December 14, 2012

昨年のおさらいから、イケイケの Midokura まで ・・・
http://wp.me/pwo1E-5mn

Agile_Cat_2012

imageやはり、今年のキーワードとして、SDN(Software-Defined Network)と OpenFlow は図抜けた存在だったと思います。 どちらかと言うと、話題としては OpenFlow が先行し、それを SDN が追いかけるという展開でした。

また、この領域におけるスタートアップである Nicira を VMware が、そして、Vyatta を Brocade がというふうに買収劇が進行し、いま現在は、Juniper が Contrail を買収という話も浮上してきています。 来年も、まだまだ、いろんな動きがあるだろうと思われる、SDN と OpenFlow の世界です。

2011:
Oct   4:
OpenFlow 関連ポストへのリンク集(20本強)
Nov 16: Juniper がデベロッパーに対して、OpenFlow ソースコードを提供開始
Dec 19: OpenFlow 1.2 が ONF の評議会で承認された – NTT Com も委員に

2012:
Jan 30:
Creation Line が展開する統合戦略とは?
Jan 11: OpenStack における SDN コネクションを探求する _1
Jan 13: OpenStack における SDN コネクションを探求する _2
Apr 11: Google 先生の OpenFlow 講座 – DC 間接続を低コストで達成するには
Apr 17: Google と OpenFlow と SDN について本音を語ろう – Urs Holzle
Apr 25: VMware の考える SDN は、OpenFlow だけでは完成しない
May 17: VMware が考える、ソフトウェア定義によるデータセンターとは?
Jun 25: OpenFlow @ Interop 2012 のマトメ・ページ
Jun 26: Google の OpenFlow バックボーンは、どのように機能しているのか_1
Jun 28: Google の OpenFlow バックボーンは、どのように機能しているのか_2
Jul   2: VMware は OpenFlow を静観する_1
Jul   4: VMware は OpenFlow を静観する_2
Jul   6: VMware は OpenFlow を静観する_3
Jul 24: VMware が Nicira を $1.26B を買収 : その背景にあるものは?
Jul 25: VMware の言うクラウド選択の自由と、Nicira の買収は矛盾しないのか?
Aug   7: Intel が思い描く、コモディティ SDN の構想 _1
Aug   9: Intel が思い描く、コモディティ SDN の構想 _2
Sep 25: Midokura と SDN : どのように Layer 2-4 をサポートすべきか_1
Sep 27: Midokura と SDN : どのように Layer 2-4 をサポートすべきか_2
Sep 28: Apigee は、テレコムのための SDN を考える
Oct 25: Cisco は vCider を買収し、分散クラウドを加速する
Nov   6: Brocade が Vyatta を買収
Nov 13: Midokura : SDN の巨人たちを標的に捉える

ーーーーー

Agile_Cat_2012そして、SDN のスタートアップには、日本発のスタートアップである Midokura がいます。 世界の強豪たちにまじり、最先端の技術で戦い続ける Midokura は、Agile_Cat としても、応援していきたい対象です。 頑張れ、Midokura ! image

ーーーーー

<関連>

みんなが 期待の Open Cloud 特集
みんなが 注目の SDN/OpenFlow 特集
みんなの 先生 James Hamilton 特集
みんなを 支える Data Center 特集
2012 – 2013 海外 マトメ・ポストを、マトメてみました 62本
泣いて、笑って、驚いて、今年も暮れる WeekEnd 特集

Comments Off on みんなが 注目の SDN/OpenFlow 特集

%d bloggers like this: