Agile Cat — in the cloud

送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!

Posted in .Selected, Data Center Trends, Energy, Green IT by Agile Cat on August 21, 2014

A next-gen battery is coming soon to the power grid
http://wp.me/pwo1E-7LS

By Katie Fehrenbacher – Feb 4, 2014
http://gigaom.com/2014/02/04/the-power-grid-is-getting-a-lot-of-new-next-gen-battery-options-this-year/


_ Giga Om

Summary: Flow batteries are funky large batteries that use liquid tanks and pumps. There’s a new one being commercialized by a Silicon Valley startup.

Summary: フロー・バッテリーとは、液体のためのタンクやポンプを用いる、ちょっと型破りな大型のバッテリーのことである。そして、Silicon Valley のスタートアップにより商品化された、新しいプロダクトが登場した。

ーーーーー

2014 seems poised to be the year that next-generation battery technologies become more widely available for the power grid. On Tuesday a five-year-old venture capital-backed startup called Primus Power announced that it’s raised another round of $20 million in funding, which it will use to get its battery technology to its first utility and power customers this year.

2014年は、次世代バッテリー・テクノロジーが、送電網において広範囲に利用されるよう、準備を整える年になりそうだ。この火曜日(2/4)に、Primus Power( 5年間に渡りベンチャー・キャピタルの支援を受けてきた)というスタータップが、別のラウンドで $20 Million を調達したと発表した。そして、年内には、Utility and Power の顧客たちに、そのバッテリー・テクノロジーを提供できるようにするようだ。

Primus Power makes “flow batteries,” which store energy like the batteries in your laptop do, but which have the electrolyte (the substance that acts as the medium for the charging and discharging) separated out of the battery cell in liquid-filled tanks. The systems use a pump to move the liquid electrolyte over the electrode, which in turn stores energy.

Primus Power が作るフロー・バッテリーは、あなたのラップトップ PC に似たようなかたちで蓄電するが、その電解質(充放電のための媒体として作用する物質)は、液体で満たされたタンク内のバッテリー・セルから分離されている。つまり、このシステムはポンプを用いて、電極上に電解液を循環させることで蓄電していく。

The Primus Power shipping container, filled with flow batteries.

The benefit of this design is that flow batteries can be cheaper, can be more easily refillable, and can provide prolonged amounts of energy storage compared to traditional enclosed batteries. Primus Power’s flow batteries are supposed to be able to provide energy storage for over a period of four or five hours, while a lithium ion battery can provide energy storage for about an hour, Primus Power’s CEO Tom Stepien told me in an interview a couple years ago.

このデザインの利点として挙げられるのは、フロー・バッテリーが安価であり、電解液の充当が容易であり、また、従来からの封入型バッテリーと比べて、長時間にわたって電力を供給できる点にある。Primus Power のフロー・バッテリーは、4時間〜5時間にわたって放電できるようになっているが、リチウム・イオン電池の場合は、約1時間の放電が限界であると、Primus Power の CEO である Tom Stepien が、数年前のインタビューで語っていた

Primus Power sells an “EnergyPod,” (see above) which is basically a shipping container that’s filled with around a dozen flow batteries stacked on top of each other. Each EnergyPod has capacity to store 250 kW of energy for a cost of $500 per kWh. For large installations a utility can install multiple shipping containers and manage them with the computing and software that Primus Power also provides.

Primus Power が販売する EnergyPod は、輸送用コンテナをベースにしたものであり、その内部は、積み重ねられた十数基のフロー・バッテリーで満たされている。それぞれの EnergyPod は、250 kW を充電することが可能であり、そのコストは kWh あたり $500 となる。また、電力会社などが大規模な導入を行う際には、複数のコンテナをインストールすることが可能であり、Primus Power が提供するコンピューティングとソフトウェアにより、それらを管理できる。

The electrode sits at the top of the flow battery.

Power companies are looking to add energy storage technologies like batteries and flow batteries to the grid as a way to store energy generated by clean power sources like solar and wind, which only provide energy when the sun shines and wind blows. The idea is that a flow battery could store energy from, say, a wind turbine, when the wind is blowing extra hard, and the battery can release the extra energy over four or five hours as the wind dies down.

電力会社は、太陽光や風力といった、クリーンであっても生成が不安定なエネルギーを蓄積するための方式として、送電網にバッテリーやフロー・バッテリーなどの、エネルギー・ストレージ・テクノロジーを加えたいと考えている。この、フロー・バッテリーのアイデアにより、たとえば風力発電の場合なら、強風により余剰な電力が供給されるときに蓄電して、風が止んだらバッテリーから、4時間〜5時間ほどの放電が可能なるのだ。

While flow batteries have been on the market for awhile, Primus Power’s flow battery is supposed to be more efficient because it uses one tank, one flow loop, one pump, and no separator (many current ones on the market use two tanks and a separator). Primus’ electrode is also made of metal, compared to the felt or plastic electrodes of some competitors (so higher conductivity) and the electrolyte itself — that flows through the system — is zinc-based.

このところ、いくつかのフロー・バッテリーが市場に登場しているが、Primus Power のフロー・バッテリーは、タンク/フローループ/ポンプが1つずつで済み、また、セパレータが不要である(数多くのプロダクトが、市場で提供されているが、そのすべてが 2つのタンクを用い、セパレータを必要とする)。いくつかのコンペティタが、フェルトまたはプラスチック(もしくは、それ以上の導電率を持つ物質)の電極を用いているのとくらべて、Primus は金属製を用いている。また、そのシステムの全体を構成する電解質は、亜鉛ベースの材質となる。

An early version of Primus Power’s electrode.

Other startups that are building the next-generation of low cost batteries for the power grid include Ambri, Eos Energy, Aquion Energy and others. Several of these companies are looking to commercialize their technology this year. And it’s not just batteries that are emerging for energy storage and the power grid — startups like LightSail Energy and SustainX are working on reinventing compressed air energy storage.

その他にも、Ambri/Eos Energy/Aquion Energy などを含むスタートアップたちが、送電網用の低コスト次世代バッテリーを構築している。そして、そのうちの何社かは年内に、そのテクノロジーを商用化しようとしている。 ただし、こうした動きは、バッテリーだけにとどまらない。LightSail Energy や SustainX といったスタートアップは、圧縮空気によるエネルギー蓄積技術を改善することで、電力網のための電力ストレージに取り組んでいる。

Primus Power has raised a total of $35 million from investors including Kleiner Perkins, Chrysalix, DBL Investors and I2BF Global Ventures. The new round was led by South Africa-based resource developer Anglo American Platinum Limited. Primus has also received $20 million worth of grants from U.S. government agencies, like the Department of Energy.

Primus Power は、Kleiner Perkins/Chrysalix/DBL Investors/I2BF Global Ventures といった投資家たちから、合計で $35 Million の資金を調達している。今回のラウンドは、South Africa ベースの資源開発会社である Anglo American Platinum Limited が主催したものである。そして、ここでも Primus は、Department of Energy といったアメリカ政府機関から、$20 Million の助成金を得ている。

Primus Power is looking to use these latest funds to deliver their first EnergyPods to customers. Customers include a utility in Modesto, California, the Bonneville Power Administration in the Pacific Northwest, and a microgrid at the Marine Corps Air Station in Miramar, California. California could be home to many of these new power grid energy storage innovations, following the state’s decision to support a large amount of energy storage projects by 2020 in order to help the state meet its renewable energy mandate.

Primus Power は、それらの資金を用いて、最初の顧客たちに EnergyPods を供給しようとしている。そして、それらの顧客には、California の Modesto や、Pacific Northwest の Bonneville Power Administration といった電力会社や、California の Marine Corps Air Station におけるマイクログリッドなどが含まれる。California は、送電網のための、新たな電力ストレージ・テクノロジーの本拠地になれるかもしれない。それは、2020年までに再生可能エネルギーの活用を促進するという、州政府が決定した大量エネルギー・ストレージ・プロジェクトを、サポートするものでもある。

Related research

The fourth quarter of 2012 in clean tech – January 2013
The next generation of battery technology – October 2012
Cleantech third-quarter 2012 – October 2012

ーーーーー

今年の2月の記事であり、だいぶ時間が経ってしまいましたが、とても興味深い内容なので訳してみました。 日本でも、さくらインターネットなどによる 石狩超電導直流送電プロジェクトや、NTT Data による 高電圧直流給電(HVDC)テクノロジーといった、エネルギーとデータセンターの関係を再構築していこうという取り組みが進んでいます。 そして、この Primus Power の EnergyPods も、大がかりな蓄電は不可能という固定概念を、打ち破ろうとする試みとして捉えることが可能です。 まだまだ、時間はかかるでしょうが、それぞれの領域でテクノロジーが磨かれていくことで、安全でクリーンなエネルギーにより、データセンターが効率よく動き続けるという、新しい時代にたどり着けると信じています。

ーーーーー

<関連>

Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えるべき
Data Centers の調査 : データセンターの効率を多角的に考える
SoftBank と Bloom Energy が提携 : 最新の燃料電池が日本にやってくる!
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!
OCP データセンターと、高温多湿気候との関係について

Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期のデータセンター資産へ

Posted in .Chronicle, .Selected, Data Center Trends, Google by Agile Cat on August 19, 2014

Google: From 112 Servers to a $5B-Plus Quarterly Data Center Bill
http://wp.me/pwo1E-7Lz

Yevgeniy Sverdlik – July 23, 2014
http://www.datacenterknowledge.com/archives/2014/07/23/from-112-servers-to-5b-spent-on-google-data-centers-per-quarter/

_ DC Knowledge

It was only 15 years ago that Google was running on slightly more than 100 servers, stacked in racks Sergey Brin and Larry Page put together themselves using cheap parts – including insulating corkboard pads – to cut down the cost of their search engine infrastructure.

それは、たった 15年前のことである。Sergey Brin と Larry Page の手により、Google が 100台少々のサーバー上で動き始めたのだ。絶縁体として用いられるコルク・ボードパッドまで含めて、安価なパーツで構成されるサーバーが、ラックの中に積み上げられていった。そうすることで、検索エンジンのインフラ・コストを、彼らは削っていった。

That do-it-yourself ethos has stayed with the company to this day, albeit it is now applied at much bigger scale.

この、日曜大工的な精神は、そのまま同社に生き続けているが、いまでは比べものにならないスケールで適用されている。

Google data centers cost the company more than $5 billion in the second quarter of 2014, according to its most recent quarterly earnings, reported earlier this month. The company spent $2.65 billion on data center construction, real estate purchases and production equipment, and somewhat south of $2.82 billion on running its massive infrastructure.

7月初めに報告された、直近の四半期決算によると、2014年 Q2 における Google データセンターのコストは、$5 billion 以上とされている。 同社は、データセンターの建設および、不動産の取得、設備の購入などに$2.65 billion を投資し、また、大規模なインフラストラクチャを運用するために、$2.82 billion を費やしている。

The $2.82 billion figure is the size of the “other cost of revenue” bucket the company includes its data center operational expenses in. The bucket includes other things, such as hardware inventory costs and amortization of assets Google inherits with acquisitions. The size of this bucket in the second quarter represented 18 percent of the company’s revenue for that quarter. It was 17 percent of revenue in the second quarter of last year.

この $2.82 billion という数字は、データセンターの運用コストを含む、同社における「その他のコスト」を、大まかなところでザックリと示している。この数字には、たとえばハードウェア在庫の金額や、Google の買収先から継承する償却資産といったものが含まれている。今年の Q2 における、この数字の規模は、同じ Q2 の売上高に対する 18% を占めている。そして、昨年の Q2 では、この数字は 17% であった。

Google’s largest server order ever

While the amount of money Google spends on infrastructure is astronomically higher than the amount it spent 15 years ago, the company makes much more money per server today than it did back then.

いまの Google が、インフラに費やすコストは、15年前とくらべて天文学的に膨らんでいる。つまり、当時と比べて、サーバーごとに費やす金額が大きくなっているのだ。

“In retrospect, the design of the [“corkboard”] racks wasn’t optimized for reliability and serviceability, but given that we only had two weeks to design them, and not much money to spend, things worked out fine,” Urs Hölzle, Google’s vice president for technical infrastructure, wrote in a Google Plus post today.

「 いまになって、振り返ってみると、あの “コルク・ボード” ラックのデザインは、信頼性と保守性という意味で最適化されていなかった。しかし、二週間でデザインを完了し、しかも、多額の費用をかけられなかったことを考えると、上手くいったのだろう」と、Google の VP for Technical Infrastructure である Urs Hölzle が、今日の Google+ にポストしている。

One of Google’s early “corkboard” racks is now on display at the National Museum of American History in Washington, D.C.

In the post, Hölzle reminisced about the time Google placed its largest server order ever: 1,680 servers. This was in 1999, when the search engine was running on 112 machines.

そのポストで Hölzle は、当時としては史上最大である、1680 台のサーバーを発注したときの思い出にも触れている。 それは、1999年のことであり、すでに同社の検索エンジンが、112台のマシン上で実行されていたときの話しでもある。

Google agreed to pay about $110,000 for every 80 servers and offered the vendor a $2,000 bonus for each of the 80-node units delivered after the first 10 but before the deadline of August 20th. The order was dated July 23, giving the vendor less than one month to put together 800 computers (with racks and shared cooling and power) to Google’s specs before it could start winning some bonus cash.

Google は、80台のサーバーで構成される1ユニットに対して、$110,000 を支払うことに合意した。 そして、8月20日までに、最初の 80 ノード x 10ユニットを納入することで、ユニットごとに $2000 のボーナスを提供すると、そのベンダーに約束した。 この発注は 7月23日付けであり、そのベンダーは 800台のコンピューターを、1ヶ月足らずで調達しなければならなかった(ラックと共有ファンと電源も含む)。 しかも、ボーナスを手にする前に、Google の要求するスペックに合わせなければならない。

Hölzle included a copy of the order for King Star Computer in Santa Clara, California. The order describes 21 cabinets, each containing 60 fans and two power supplies to power those fans.

Hölzle は、そのブログ・ポストに、Santa Clara, California の King Star Computer 宛に発行した、発注書をコピーしてくれた。それは、21台のユニットを発注するものであり、それぞれに 60台のファンと、そのための 2つの電源が取り込まれるものであった。

There would be four servers per shelf, and those four servers would share:

1つのシャシーに 4台のサーバーが配置され、以下を共有する:

  • 400-watt ball bearing power supply
  • Power supply connector connecting the individual computers to the shared power supply
  • Two mounting brackets
  • One plastic board for hard disks
  • Power cable

Each server would consist of:

個々のサーバーの構成要素:

  • Supermicro motherboard
  • 265 megabytes of memory
  • Intel Pentium II 400 CPU with Intel fan
  • Two IBM Deskstar 22-gigabyte hard disks
  • Intel 10/100 network card
  • Reset switch
  • Hard disk LED
  • Two IDE cables connecting the motherboard to the hard disk
  • 7-foot Cat. 5 Ethernet cable

Google’s founders figured out from the company’s early days that the best way to scale cost-effectively would be to specify a simple server design themselves instead of buying off-the-shelf all-included gear. It designs its hardware on its own to this day. Other Internet giants that operate data centers at Google’s scale have followed suit.

Google の創設メンバーたちは、同社が立ち上がったときから、すべてのギアが取り込まれた既成品サーバーを購入するのではなく、ニーズに適合するシンプルなサーバーを自らデザインすることが、大きなスケールで費用対効果を向上させる方法だと、理解していたことになる。そして、ハードウェアを独自にデザインするという考え方は、今日まで続いている。 さらに言えば、Google スケールでデータセンターを運営する、他のインターネット・ジャイアントたちも、それを追随してきたことになる。

ーーーーー

とても面白い話なので、楽しみながら訳すことができました :) そして、分かったことは、今日に至るまで Google が、既成品としてのサーバーを、まったく購入していないという、徹底したカスタム路線を貫いていることです(多少の例外はあるかも?)。 いつ頃から、台湾の ODM に発注先が切り替わったのか、そのあたりは分かりませんが、データセンターを運用する側が、つまりユーザー側が、サーバーをデザインすべきという発想の原点が、ここにあるのでしょう。 Open Compute Project Japan を、お手伝いしている Agile_Cat としても、このトピックを皆さんと共有できて嬉しいです。 何かの機会があり、Washington, D.C. へ行くことがあるなら、National Museum of American History で初代 Google サーバーを見学したいものですね。

ーーーーー

<関連>

Google のインフラ投資は ケタ外れ:それを示す1枚のチャート
なぜ、IBM は Power チップをオープン化したのか? Google の戦略は何処にあるのか?
Facebook と Open Compute が、Wedge という名の オープン・スイッチを発表!
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
台湾の Wistron と Inventec が、ついに ARM サーバーの生産に着手する!
Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えなければならない

Level 3 と Digital Realty:ネットワーク帯域幅をスケールさせる環境に、AWS と Azure を取り込む

Posted in Data Center Trends, Hybrid, Telecom by Agile Cat on July 30, 2014

Level 3, Digital Realty provide direct connection to Amazon, Microsoft cloud services
http://wp.me/pwo1E-7HU
April 29, 2014 | By Sean Buckley
http://www.fiercetelecom.com/story/level-3-digital-realty-provide-direct-connection-amazon-microsoft-cloud-ser/2014-04-29

_ fiercetelecom

Level 3 Communications has established a new partnership with Digital Realty Trust where it will provide the data center provider’s customers in 14 U.S. and European markets access to its growing base of cloud service partners including Amazon Web Services (AWS Direct Connect) (NASDAQ: AMZN) and Microsoft Azure (NASDAQ: MSFT) (ExpressRoute).

Level 3 Communications が Digital Realty Trust と、新たなパートナーシップを確立した。それにより、U.S. と Europe における、14 ヶ所のデータセンター・プロバイダーを利用する顧客に対して、クラウド・サービス・パートナーへのアクセス基盤が拡張されるが、その中には Amazon Web Services(AWS Direct Connect)と、Microsoft Azure(ExpressRoute)も含まれる。

Through this relationship, the Digital Realty customers will have a new route to migrate and operate their applications to a hybrid cloud environment with the backing of Level 3’s deep network presence.

この提携により、Digital Realty の顧客は、Level 3 の緊密に張り巡らされたネットワークを後ろ盾とする、ハイブリッド・クラウド環境へとアプリケーションを移行する、新しい道筋を持つことになる。

While Level 3 is hardly alone in providing a direct access route to AWS and Microsoft Azure, Anthony Christie, chief marketing officer for Level 3, told FierceTelecom what sets it apart is the global nature of the offering.

Level 3 は、AWS や Microsoft Azure にダイレクト・アクセスのルートを提供する際に、それを単独で行うわけではないが、グローバルな性質により際立ったものになると、同社の Chief Marketing Officer である、Anthony Christie が FierceTelecom に語っている。

"One of the things that you’ll see from us that is different than what you’ll see from some of the other network service providers is we continue to leverage the global nature of our network," he said. "With Amazon, Level 3 will be listed as the most connected player to Amazon’s hosting and data centers around the world.”

「 誰もが分かる、他のネットワーク・サービス・プロバイダーの違いは、私たちのネットワークがグローバルな性質を活用している点である。Amazon においては、世界に点在する AWS ホスティング/データセンターと、最も数多く接続されているプレーヤーとして表示される」と、彼は発言している。

Another potential benefit of this pact for enterprise customers is they can adjust network bandwidth and storage levels as needed. During a holiday shopping season, a retailer could dynamically scale their bandwidth and only pay for what they consume as demand for computing capacity ramps.

エンタープライズ・カスタマーにおける、この協定による別の潜在能力は、ネットワーク帯域幅とストレージ・レベルを、必要に応じて調整できる点にある。たとえば、ホリデー・ショッピング・シーズン中の小売業者は、帯域幅をダイナミックに拡張することが可能であり、その突出したコンピューティング容量に対してのみ、対価を支払えば良いことになる。

In addition to scaling bandwidth, Digital Realty customers will gain the flexibility to choose the cloud model and cloud provider that best meet their needs, access bandwidth dynamically and pay only for what they use.

この帯域幅のスケーリングに加えて、Digital Realty の顧客たちは、クラウド·モデルとクラウド・プロバイダーを柔軟に選択するという、メリットを手にすることになる。 つまり、自身のニーズにフィットしたクラウドを選び、アクセス帯域幅をダイナミックに調整し、使用した分だけ対価を支払えるようになる。

Level 3 is also providing connectivity under its Cloud Connect Solutions program, including Layer 1, Layer 2 and Layer 3 connectivity.

さらに Level 3は、Cloud Connect Solutions プログラムのもとでコネクティビティを提供しており、そこには Layer 1/Layer 2/Layer 3 が取り込まれている。

"On a global scale, we can guarantee latency for connectivity for public and hybrid cloud environments at Layer 1," Christie said. "We’re working on Layer 2 and Layer 3, but because of the switched nature of those products, it’s a bit tricky."

「 グローバル・スケールにおいて、パブリック/ハイブリッド·クラウド環境での接続のために、レイテンシーを保証するのは Layer 1 となる。Layer 2 と  Layer 3 にも取り組んでいるが、それらのプロダクトにおけるスイッチの性質は少々トリッキーである 」と、Christie は発言している。

Christie added that "with our Layer 3 MPLS offer, what we’re enabling is instantaneous consumption by pre-provisioning ports into Amazon and into Azure so they can burst through and consume Amazon Web Services in the future."

私たちが提供する Layer 3 MPLS により、Amazon および Azure に対して、事前にプロビジョニングしたポートを介したバーストが可能になる。したがって、将来的には、バーストを介した Amazon Web Services の利用も実現される」と、Christie は付け加えている。

Related articles:

Level 3 gets ISO certification for security services in Latin America
Level 3 grabs two new multi-national enterprise wins
Level 3 connects network to 50 U.S. Air Force sites
Level 3’s Storey: M&A is an option, not a necessity

ーーーーー

このところ、「AT&T と Equinix:エンタープライズ向けのクラウド・アライアンスを締結」や「ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon 」といった抄訳をポストしましたが、この Level 3 と Digital Realty の戦略も同じところを狙っているように思えます。つまり、ダーク・ファイバーに投資してきた事業者が、帯域幅をスケールさせるネットワークの中に、コンピューティングとストレージをスケールさせるパブリック・クラウドを、つなぎ込んでいくという構図です。そして、ハイブリッド・クラウドを目指すエンタープライズにとっては、おそらく、最も分かりやすく、安心できるフレームワークなのでしょう。 とても、興味深いトレンドです。

ーーーーー

<関連>

世界のテレコム Top-3 を占める AT&T/Verizon/NTT:それを示す1枚のチャート
コロケーションの世界:グローバルの覇者 Equinix と アジア・チャンピオンの NTT を比較する
SingTel と TelecityGroup は、インターネットに依存することなく Azure 接続を実現する
Foxconn が Asia Pacific Telecom を合併:製造業からキャリアへの転身を図るのか?
NEC と Alcatel が 海底ケーブル・プロジェクトを受注:シンガポールとフランスを接続する!

ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon

Posted in Data Center Trends, Hybrid, Private Cloud, Telecom by Agile Cat on July 17, 2014

Dark fiber to inspire more confidence in cloud, says Verizon
http://wp.me/pwo1E-7FR
April 10, 2014 Written by
Jonathan Brandon
http://www.businesscloudnews.com/2014/04/10/dark-fibre-to-inspire-more-confidence-in-cloud-says-verizon/

_BCN

American telco Verizon announced the launch of a Secure Cloud Interconnect service (SCI) this week, using private IP addresses to connect its cloud and multiple cloud platforms together, beginning initially with Microsoft Azure. Michael Palmer, vice president of product development for Verizon said linking cloud platforms with private links will help inspire confidence in cloud service once again, which has waxed and waned over the past year.

US のテレコムである Verizon は、今週 (2014/04) に Secure Cloud Interconnect service (SCI) を立ち上げると発表した。それは、プライベート IP アドレスを用いて、同社のクラウドと多様なクラウド・プラットフォームを接続するものであり、最初のビジネスは Microsoft Azure からとなる。Verizon の VP of Product Development である Michael Palmer は、プライベート・リンクを用いたクラウドプラット・フォームの接続は、クラウド・サービスの信頼性をさらに高めるものであり、この1年の間、手塩にかけて育ててきたと述べている。

ーーーーー

Verizon said enterprises will be able to use its private IP service to connect to multiple cloud services including the Verizon cloud, beginning with Azure, and it expects an additional half-dozen other major cloud providers to come on board later this year. The service with Azure support is expected to go live this summer.

Verizon が言うには、自身のプライベート IP サービスを用いて、多様なクラウド・サービスとの接続を実現していく。 そこには、もちろん、Verizon のクラウドも含まれ、最初の接続先は Microsoft Azure となる。そして、今年の終わりまでには、5〜6 社の主要クラウド・プロバイダーも、そこに加えたいとしている。 なお、このサービスと Azure の組み合わせは、今年の夏には実運用に入る予定である。

Verizon announced the launch of its Secure Cloud Interconnect service (SCI) this week, which will use private IPs to connect its cloud and multiple cloud platforms together

It also said enterprises that have located their private cloud infrastructure in Equinix datacentres can directly access the service in 15 Equinix datacentres in the US, Europe and Asia-Pacific.

さらに言えば、それらのエンタープライズたちは、自身のプライベート・クラウド・インフラを、Equinix データセンターに設置することが可能であり、世界の 15ヶ所(US/Europe/Asia-Pacific)に点在する Equinix のデータセンターへと、ダイレクトに接続することも可能になる。

“With Secure Cloud Interconnect, Verizon is removing the barriers for enterprise cloud adoption,” said Michael Palmer, vice president of product development for Verizon. “The reality is that many organizations today use multiple clouds to meet their business and technical objectives, but there was no easy way to manage this environment.”

「 Secure Cloud Interconnect を用いることで、エンタープライズ・クラウドの採用における障壁を、Verizon は取り除いていく。現実に、今日における大半の法人が、自身のビジネスとテクノロジーに関する目標を達成するために、多様なクラウドを使用しているだろう。しかし、その全体的な環境を管理するための、簡単な方法は存在していなかった」と、Verizon の VP of Product Development である Michael Palmer は述べている。

“Our new offering uniquely gives enterprises everything they require in a multi-cloud environment – security, private connectivity, performance, simplicity and efficiency,” stated Palmer.

「 私たちだけが提示するサービスが、エンタープライズが多様なクラウド環境で要求する、すべての要素を提供していく。 具体的には、セキュリティ/プライベート接続/パフォーマンスであり、それらすべてが、簡潔かつ効率よく実現される」と、Palmer は言う。

The service will come with 10Gbps private links between supported cloud platforms including its own, and will boast dynamic bandwidth allocation with fully redundant connections, application performance throughput and quality of service monitoring, usage-based billing, provisioning and management via a centralised portal.

このサービスでは、自身のクラウドおよび他のクラウド·プラットフォーム間に、10 Gbps のプライベート・リンクが提供される。完全な冗長コネクションと、アプリケーション性能スループットを備えた、ダイナミック・バンドワイズ・アロケーションが実現され、また、センタライズされたポータルを介した、モニタリング/使用量ベースの課金/プロビジョニングといった、高品質のマネージメント環境が提供される。

“As enterprises look to cloud computing for speed, flexibility and efficiency, they also require a platform that offers enterprise-proven performance and reliability,” said Yousef Khalidi, distinguished Azure engineer at Microsoft.

「 エンタープライズが、クラウド·コンピューティングの高速性/柔軟性/効率性に目を向けるにつれて、そのための性能と信頼を提供してくれる、実績のあるプラットフォームが必要とされる」と、Microsoft の Distinguished Azure Engineer である Yousef Khalidi は述べている。

“We look forward to extending our cloud services to Verizon’s extensive network of clients through its security-enabled enterprise platform,” he added.

「 私たちは、セキュリティ対応のエンタープライズ・プラットフォームを介して、クライアントが利用する Verizon 大規模ネットワークに、自らのクラウド・サービスを拡張していけることを楽しみにしている」と、彼は付け加えている。

Whether in enterprises or public sector organisations, particularly the military, dark fibre has been deployed extensively to secure digital web-connected services. But many within the cloud security community view dark fibre as an essential element in the future internet, as the proliferation of cloud services and connected devices leaves organisations increasingly vulnerable to digital attack.

その対象が民間や行政であろうが、さらに言えば軍隊であろうが、Web 接続されたデジタル・サービスをセキュアにするために、ダークファイバーは広く展開されている。しかし、クラウド・セキュリティのコミュニティに参加する多くの人々は、将来のインターネットに不可欠な要素としてダークファイバーを見ている。そして、クラウド・サービスとデバイス接続の急増は、デジタル攻撃に対して脆弱な組織を、この現状の中に取り残しているのだ。

ーーーーー

このところ、いわゆるネットの中立性の問題では、FCC と並んで悪玉あつかいされがちな Verizon ですが、ダーク・ファイバーでクラウド間をダイレクトに接続していくという試みを、こうして明言することには、拍手を送りたいと思います。いまの、アメリカのキャリアたちは、ヨーロッパから入り込んできた Open-IX と、戦わざるを得ない状況にあります。 それは、Internet Exchange(IX)の在り方を再考する動きでもあり、レイテンシを削り取りながら、証券や金融などの分野にセキュアな環境を提供する『点としての IX』 と、大量のデータをより安価に、たとえばソーシャル・メディアなどのために転送する『面としての IX』を、上手く共存されていく方法論でもあると思えるのです。

ーーーーー

<関連>

SingTel と TelecityGroup は、インターネットに依存することなく Azure 接続を実現する
世界のテレコム Top-3 を占める AT&T/Verizon/NTT:それを示す1枚のチャート
NTT Com の、マレーシア 第4データセンターがオープンした
Foxconn が Asia Pacific Telecom を合併:製造業からキャリアへの転身を図るのか?
ネットの中立性: Verizon と AT&T の遅延をチャートで検証してみた

Digital Realty が 北米 4ヶ所のデータセンターで、Open-IX サーティフィケーションを取得

Posted in Data Center Trends, Open IX by Agile Cat on July 16, 2014

Digital Realty Receives Open-IX Certification for Four Data Centers in North America
http://wp.me/pwo1E-7Fu

By PR Newswire – April 2, 2014
http://www.sys-con.com/node/3041094

SAN FRANCISCO, April 2, 2014 /PRNewswire/ — Digital Realty Trust, Inc. (NYSE: DLR), the global data center and colocation company, announced today that it has received Open-IX certification for four of the company’s data centers: 111 8th Ave. in New York; 365 Main St. in San Francisco; 2260 E. El Segundo Blvd. in Los Angeles; and 850 E. Collins in Dallas. Clients will also have access to Open-IX from an additional 15 Digital Realty data centers through the Digital Realty ecosystem.

SAN FRANCISCO, April 2, 2014 /PRNewswire/ — 今日(4/2)グローバル・データセンターとコロケーションの事業者である Digital Realty Trust, Inc. (NYSE: DLR) が、同社のデータセンターが、Open‐IX の認定を受けたと発表した。 具体的には、111 8th Ave. in New York および、365 Main St. in San Francisco、2260 E. El Segundo Blvd. in Los Angeles、’850 E. Collins in Dallas の 4ヶ所となる。また、同社の顧客たちは、Digital Realty エコシステムを介して、その他の15箇所の Digital Realty データセンターからも Open-IX にアクセスできるようになる。

Additionally, Digital Realty is in the planning stages to obtain Open-IX certification for facilities in Chicago and Ashburn.

さらに、Digital Realty は、Chicago と Ashburn のファシリティにおいても、Open-IX の認定を得るという計画を進めている。

Interim CEO Bill Stein commented, "Digital Realty has been a strong advocate of providing the market with a more neutral and accessible internet exchange environment. We are delighted that we can now offer our clients access to our Open-IX certification in many of our North American properties. We will continue our commitment to the Open-IX community and internet exchange providers to extend and support a carrier- and ISP-positive environment."

Interim の CEO である Bill Stein は Digital Realty について「より中立的なかたちでアクセスできる、Internet Exchange 環境をマーケットに提供する流れを、強力に支持している。 そして、North American の大半の拠点において、Open-IX サーティフィケーションを顧客に提供できることを、とても嬉しく思っている。 私たちは、キャリアと ISP にとって理想的な環境を拡張しサポートしていくために、Open-IX コミュニティと Internet Exchange プロバイダーに対して、このコミットメントを今後も継続していく」と述べている。

The Open-IX Association is encouraging a more mutual and open model of internet exchanges, and interconnection within data centers, by issuing certification to IXP’s and data center providers who meet the standards set by the community.

Open-IX Association は、Internet Exchange における、より互恵的でオープンなモデルと、データセンター内での相互接続を奨励している。 そのために、このコミュニティにより設定された基準を満たす、Internet Exchange とデータセンターのプロバイダーに対して、サーティフィケーションを発行している。

"The ultimate objective of Open-IX is to reduce interconnection complexity and the associated costs to users in North America, similar to Europe, where the neutral and distributed internet exchange model is very common," added John Sarkis, Digital Realty Vice President of Connectivity. "Everyone benefits – our clients, their customers, and their end users – by having a more open internet exchange environment, bringing new levels of efficiency and resilience to all involved."

Digital Realty の VP of Connectivity である John Sarkis は、「Open-IX の最終的な目標は、North America におけるインターコネクションから複雑さを取り除き、それに付帯するユーザーのコストを削減することにある。 つまり、中立性と分散化が一般的になっている、Europe の Internet Exchange モデルと同じようにすることである。それは、よりオープンな Internet Exchange 環境を有し、すべての関係者であるクライアント/カスタマー/エンドユーザーに対して、より高められた効率性と弾力性および、新しいレベルをもたらすことに他ならない」と述べている。

Link to services and pricing on Digital Realty website.
Link to video of John Sarkis discussing the Digital Realty open internet exchange environment.
Link to photo of Digital Realty datacenter at 365 Main St. in San Francisco.

ーーーーー

Digital Realty は、日本においても大阪に用地を取得し、そのデータセンター・ビジネスを展開し始めたところです。この、2013年末の WSJ のインタビューでは、日本に続いてアジア各国にデータセンターを構築し、グローバルにおける比率を高めたいという方針が述べられています。同社は、データセンター事業者といっても、そのスペースを大口の顧客に提供するという、卸売とも言えるビジネスを主体としているようです。 そして、その顧客には、金融などのユーザーもいれば、コロケーションやクラウドなどをビジネスとして展開するユーザーもいるわけです。 日本において、そして、アジアにおいて、Open-IX を促進する同社の、これからの動向が注目されます。

ーーーーー

<関連>

AMS-IX NY の最初の入居者は Netflix : さらに勢いづく Open IX
AMS-IX が New York 市場に参入:Open IX が勢いづく!
Open IX のアメリカでの展開が加速する:バージニアで勢力を拡大する London IX
Open IX という組織が、インターネット接続を再定義する
コロケーションの世界:グローバルの覇者 Equinix と アジア・チャンピオンの NTT を比較する

Internap の ベアメタル OpenStack クラウドが、Hong Kong データセンターにも展開される!

Posted in Asia, Bare-Metal, Data Center Trends, OpenStack by Agile Cat on July 10, 2014

Internap Expands Bare-Metal Cloud Servers to London, Hong Kong Data Centers
http://wp.me/pwo1E-7Ek
by Yevgeniy Sverdlik on July 2, 2014
http://www.datacenterknowledge.com/archives/2014/07/02/internap-expands-bare-metal-cloud-servers-london-hong-kong-data-centers/

_ DC Knowledge

Data center service provider Internap has expanded its bare-metal public cloud service to data centers in London and Hong Kong. The service was previously available at the company’s Amsterdam, Singapore, Dallas, New York and Santa Clara, California, locations.

データセンター・サービス・プロバイダーである Internap が、そのベアメタル・パブリック・クラウド・サービスのためのデータセンターを、London と Hong Kong へと拡大してきた。 このサービスは、同社における Amsterdam/Singapore/Dallas/New York/Santa Clara/California といったロケーションで、以前から利用できるようになっていた。

Bare-metal cloud servers are essentially dedicated managed servers customers can provision like they provision cloud virtual machines. The offering, also available from Internap rivals like Rackspace and IBM SoftLayer, provides performance of dedicated servers along with elasticity of a public cloud service.

ベアメタル・クラウド・サーバーは、基本的に顧客専用のマネージド・サーバーであり、そのプロビジョニングに関しても、クラウドの仮想マシンのように行えるものとなる。この Internap のサービスも、Rackspace や IBM SoftLayer といったライバルと似たものであり、パブリック・クラウド・サービスのエラスティックな特性と一緒に、専用サーバーによるパフォーマンスを提供する。

Internap said it was addressing demand by companies running globally distributed data-intensive applications, such as Big Data analytics, mobile and digital advertising and online gaming. Such applications can suffer from performance issues when sharing physical resources with other applications.

Internap は、グローバルに分散したデータ集約型アプリケーション(Big Data分析/モバイルとデジタルの広告/オンライン・ゲームなど)を運用している企業の、需要に対して取り組んでいると発言している。このようなアプリケーションは、物理リソースを他のアプリケーションと共有することで、パフォーマンスの問題を生じる場合がある。

The provider’s bare-metal cloud offering, called AgileCloud, is coupled with its patented Managed Internet Route Optimizer technology, which continuously analyses Internet performance and routes customer traffic over the best available path.

この AgileCloud と呼ばれる、ベアメタル・クラウド・サービスは、Managed Internet Route Optimizer テクノロジーの特許と組み合わせて提供される。それにより、インターネット・パフォーマンスを継続的に分析し、顧客のトラフィックを最適な経路へとルーティングすることが可能になる。

“Organizations deploying real-time, data-intensive applications are increasingly seeking cloud services that provide flawless performance, reliability and cost efficiency across globally distributed environments,” said Christian Primeau, senior vice president and general manager of cloud and hosting at Internap. “Our bare-metal cloud uniquely addresses these demands, and the addition of our London and Hong Kong locations delivers broader reach in key end user markets.”

「データ集約型アプリケーションをリアルタイムでディプロイする企業は、完璧な性能/信頼性/コスト効率を、グローバルに分散された環境で提供できる、クラウド・サービスへの需要を高めている。 私たちのベアメタル・クラウドは、それらの要求に独自の発想で対処し、また、London と Hong Kong というロケーションを追加したことで、広範囲におよび主要エンドユーザー・マーケットへの、より幅広いリーチを実現していく」と、Internap の VP and GM of Cloud and Hosting である Christian Primeau は述べている。

Internap’s competitors in the space have been very active.

しかし、この領域における Internap のコンペティタたちも、きわめてアクティブである。

IBM announced earlier this year that it would invest $1.2 billion in expanding physical footprint of the SoftLayer cloud. Earlier this week the company announced the most recent addition to that footprint: a new data center in London.

今年の初めに、IBM は SoftLayer クラウドの物理フットプリントを拡大するために、$12 Billion を投資するとアナウンスしている。そして、今秋には、London の新しいデータセンターを、そのフットプリントへ追加すると発表した。

Rackspace in June rolled out a brand new bare-metal cloud offering, called OnMetal. The company has custom-built servers to support the offering using Open Compute designs as a basis.

そして 6月には、Rackspace も OnMetal という新しいブランドの、ベアメタル・クラウド・サービスを立ち上げた。当社は、そのサービスをサポートするために、Open Compute デザインを基本として用いた、カスタム・サーバーを構築している。

ーーーーー

 Internap と言えば、OpenStack 陣営の中で、最も早くビジネスを立ち上げたプロバイダーですが、その後は、あまり話題になっていなかったようにも思えます。 しかし、この記事を見ると、着実にテクノロジーを積み上げ、ベアメタル・クラウド・サービスでは Rackspace と競合するほどの、ポジションを確保しているような感じがします。 それと、インターネット・パフォーマンスの分析とルーティングの最適化を行ってくれる、Managed Internet Route Optimizer テクノロジーというのが、とても気になります。 これからは、ネットワークも含めた SLA が、クラウドを選ぶ際の要因になっていくのでしょうかね?

ーーーーー

<関連>

Internap は $30M で Voxel を買収し、さらに OpenStack を推進する
OpenStack の一番手 – Internap のビジネスが始まる
Internap が構築する、OpenStack-Based のオリジナル・パブリック・クラウドとは?
Rackspace の OnMetal サービスが、Post-VM 時代のクラウドを提起する
IBM のクラウド戦略:SoftLayer London データセンターが立ち上がる

Instagram が達成した史上最大のマイグレーション:200億枚のイメージを AWS から Facebook Bare-Metal へ!

Posted in Bare-Metal, Data Center Trends, Facebook, Open Compute by Agile Cat on July 8, 2014

Instagram moves 20 billion images to Facebook servers
http://wp.me/pwo1E-7E4

Mike Wheatley | June 30th
http://siliconangle.com/blog/2014/06/30/instagram-migrates-20-billion-images-shifted-to-facebooks-servers/

_ Silicon Angle

Instagram announced last week that it’s picked up its billions of images stored in Amazon Web Services (AWS) and dumped them into Facebook’s own servers in one of the largest data migration operations ever undertaken.

先週のことだが、Instagram は史上最大規模のデータ·マイグレーションへの取り組みの中で、Amazon Web Services (AWS)に保存された何百億枚というイメージを取り出し、Facebook が提供する独自のサーバー群に投げ込んだと発表した。

News of the move came from this interview with Facebook infrastructure engineer and Open Compute Foundation program developer Charlie Manese. Manese revealed that the massive migration took about a year to organize and an additional month to carry out. As a result of moving onto Facebook’s infrastructure, Instagram now uses about a third fewer servers, something that significantly reduces its operating costs, Manese notes.

この出来事に関するニュースは、Facebook の Infrastructure Engineer と Open Compute Foundation の Program Developer を兼任する Charlie Manese とのインタビューから得られたものである。Manese の説明から、この大規模なマイグレーションを実施するために、約1年という長い歳月が費やされ、また、収束のために1ヶ月が追加されたことが分かってきた。この、Facebook インフラストラクチャへ移行した結果として、これまでと比べて 1/3 というスケールにサーバー数が集約され、Instagram の運用コストなどが大幅に削減されたと、Manese は指摘している。

Wired later posted an in-depth article on the transition – which has been called the “Instagration” within company circles – and notes that it was unlike any other. With previous migrations – such as with FriendFeeed – Facebook was able to shut the service down before shifting all of its data into its own shop. But Instagram is vastly larger and still growing rapidly. The operation involved shifting images from thousands of virtual machines in AWS’s cloud infrastructure to Facebook’s private data centers without disrupting service.

このマイグレーションに関する詳細な記事が、後になって Wired からもポストされているが、このチーム内では Instagration と呼ばれていたこと、そして、他のケースと異なるものであったことが指摘されている。たとえば FriendFeeed のケースなどの、これまでのマイグレーションにおいて、Facebook はシャットダウンさせてから、すべてのデータを移行することが可能であった。しかし、Instagram の場合は、その規模もきわめて大きく、また、急速に成長している最中にいる。つまり、Instagram の サービスを中断することなく、AWS のクラウド·インフラストラクチャーである数千の仮想マシンの中から、夥しい量のイメージを、Facebook のプライベート・データセンターへ移すという作業が必要であった。

Being on Facebook’s own infrastructure not only saves operational costs but means that Instagram can now take advantage of Facebook’s advertising and analysis tools. That could mean more advertising in the future. Instagram can also benefit from dozens of other tools Facebook has built, such as its spam blocking software.

Facebook のインフラストラクチャで運用することで、Instagram はコストの削減を可能にするだけではなく、Facebook の広告/分析ツールも利用できるようになる。つまり、その将来において、より以上の広告を展開できるようになるかもしれない。さらに Instagram は、すでに Facebook が組み込んでいる、スパム・メール・ブロック・ソフトウェアなどの、数多くのツールからの恩恵も受けることになる。

The sheer complexity of this migration also illustrates how companies can make huge gains in efficiency when they build their own infrastructure – just like Facebook has with its open-source, Open Compute data centers. Facebook’s own data centers run 38 percent more efficiently and are 24 percent less expensive than the average data center, according to the Open Compute website.

このマイグレーションは、かなり複雑なものであるが、独自のインフラストラクチャを構築する際に、きわめて効果的に膨大な利益をもたらす方式を、この両社は示しているのかもしれない。 まさに、それが、Facebook がオープンソースとして有している、Open Compute データセンターである。Open Compute の Web サイトによると、平均的なデータセンターと比較して、Facebook のデータセンターでは、38% の効率化と 24% のコスト削減が達成されているという。

ーーーーー

4月3日の TechCrunch が、「グリーンピース、Amazonを叩き、Apple、Google、Facebookを賞賛」というタイトルで、Greenpeace のレポートを紹介していましたが、その記事の中の図版では、Instagram が Facebook にホストされているように描かれていました。 その他にも、WhatsApp が IBM に居たり、SnapChat が Google に居たりしていて、Greenpeace の調査力に驚いた記憶があります。 それにしても、あの Instagram を止めることなく、別のクラウドへ移行させるのは、並み大抵のことではないでしょう。 そして、VM ⇒ Bare-Metal への移行により、パフォーマンスも大きく変化しているはずです。 まさに、進撃のベアメタルですね!

ーーーーー

<関連>

SAP と HANA が、Open Compute に恋する理由
Rackspace の OnMetal サービスが、Post-VM 時代のクラウドを提起する
IBM のクラウド戦略:SoftLayer London データセンターが立ち上がる
各サービス の モバイル率 を調査する : LinkedIn 22%、Facebook 65%、Instagram 97% など
ソーシャルと、若ものと、ショッピング : FB と TW を Instagram が追撃する!

Rackspace の OnMetal サービスが、Post-VM 時代のクラウドを提起する

Posted in .Selected, Bare-Metal, Data Center Trends, Open Compute, OpenStack, Rackspace, Strategy by Agile Cat on July 4, 2014

Rackspace’s OnMetal service eliminates "noisy-neighbor" problems
http://wp.me/pwo1E-7Dx

By Michael Kassner July 1, 2014
http://www.techrepublic.com/article/rackspaces-onmetal-service-eliminates-noisy-neighbor-problems/

Has VM server technology finally outlived its usefulness? Rackspace and some major clients seem to think so.

仮想サーバーのテクノロジーは、その有用性という観点で、長生きし過ぎているのだろうか? Rackspace と、主要な顧客たちは、そう考えているようだ。

Last year, Dell and HP lost a key customer — Rackspace. Up until then, the two companies supplied Rackspace with upwards of 90,000 servers. Rackspace, like Facebook, now designs its own servers using guidelines from the Open Compute Project. Quanta Computer builds the custom servers for Rackspace.

昨年のことだが、Dell と HP は、重要な顧客である Rackspace を失っている。それまで、この両社は、90,000台以上のサーバーを Rackspace に供給してきた。しかし、いまの Rackspace は Facebook のように、Open Compute Project のガイドラインを用いて、自らのサーバーをデザインしている。 そして Quanta Computer が、Rackspace のためのカスタム·サーバーを構築している。

Image: Rackspace

This past week, Taylor Rhodes, President of Rackspace, announced in this video what was in store for these servers — a new Rackspace offering called OnMetal. Put simply, Rackspace, besides providing customers multi-tenant virtual machine (VM) servers, will now rent single-tenant dedicated servers.

先週のことだが、Rackspace の President である Taylor Rhodes は、彼らの OnMetal という新しいサーバーに、ストアされるものをビデオで発表した。簡単に言うと、これからの Rackspace は顧客たちに、マルチテナントの仮想マシン(VM)サーバーを提供するだけではなく、シングルテナントの専用サーバーをレンタルすることになる。

Why single-tenant servers?

Rhodes listed a whole slew of reasons why multi-tenant VM servers were not meeting customer needs, calling the issues "noisy-neighbor" problems. The predicament was first noticed when one tenant on a VM server co-opted most of the server’s resources. Doing so caused variability in how the other VMs behaved and performed, even to the point where availability was not assured.

Rhodes は、マルチテナントVMサーバーが、顧客のニーズを満たせなかった理由を列挙し、すべてが "noisy-neighbor(迷惑な隣人)" の問題だと切り捨てている。この不具合は、VMサーバー上のテナントが、そのサーバーの大半を共有すると選択したときに、初めて気づくものである。 そのような状況では、他の VM の振る舞いや、その処理の内容に応じて、自身の VM に性能のバラつきが生じることになり、可用性が保証できないレベルに至ることもある。

Rhodes stated that clients, not seeing any other choice, attempted to thwart these issues by over-provisioning their server requirements, aggravating the situation even more. Something else often overlooked is that each VM instance adds what Rhodes considers "virtualization tax." The performance hit each additional VM instance places on the physical server.

Rhodes は、こうしたサーバーのオーバー・プロビジョニングによる問題を、他の選択肢を探すことなく阻止しようとする顧客は、さらに状況を悪化させると述べている。その他で見落とされがちなものとしては、それぞれの VM インスタンスが積み上げていく "virtualization tax” があると、Rhodes は考えている。つまり、物理サーバー上に追加された、それぞれの VM インスタンスにより、パフォーマンスが劣化していくことになる。

Image: Rackspace

One solution that eliminates the noisy-neighbor problem is to place critical services on dedicated servers in colocation centers. However, companies renting dedicated hardware lose a lot in the process. According to Rhodes, "In a colocation center, you lose the simplicity and elasticity a multi-tenant cloud gives you."

この、noisy-neighbor の問題を排除するソリューションとして、コロケーション·センター内の専用サーバーに、重要なサービスを配置するという考え方がある。しかし、専用のハードウェアーをレンタルするプロセスの中で、顧客となる企業は大きなロスを生じる。Rhodes は、「コロケーション・センターにおいては、マルチテナント・クラウドが提供するはずの、シンプルでエラスティックという特性が失われる」と述べている。

Elasticity refers to "how well the datacenter can satisfy the growth of the input VMs resource demands under both the limitations of physical machine capacities." So there’s the trade-off: performance variability vs. ease and quickness of provisioning.

ここでい言うエラスティックだが、「物理マシンのキャパシティという制約の下で、要求に応じて VM リソースを投入し、データセンターの成長を達成する」という意味を持つ。したがって、そこには、” パフォーマンスの変動性 vs 迅速で容易なプロビジョニング ” というトレードオフがある。

With Rackspace’s new service, there’s no trade-off

Rackspace took the best parts of the multi-tenant cloud and colocation services and discarded the parts that weren’t working. To do that, Rackspace took its OnMetal server design, enlisted OpenStack cloud software, (specifically Ironic, a provisioning system built for bare-metal servers), and created a service that lets providers work with non-VM servers (OnMetal) in the same manner and flexibility VM servers are provisioned.

Rackspace が選んだ方針は、マルチテナント・クラウドとコロケーション・サービスからの良いとこ取りである。そのためには Rackspace は、OpenStack クラウド·ソフトウェアを組み入れれる(ベアメタル・サーバー用に構築された Ironic プロビジョニング・システムが特徴)、OnMetal サーバーを自身でデザインすることになった。その結果として、顧客であるサービス・プロバイダーたちは、non-VM サーバー(OnMetal)を動かしながら、VM サーバーのプロビジョニングで実現される方式と柔軟性を手に入れられる。

Rhodes stated OnMetal servers:

Rhodes は OnMetal サーバーについて、以下のように述べている:

  • Are 100% solid-state, no heat (other than the Central Processing Unit), and no vibration as fans are outside the server housing;
  • Can be spun up in minutes, just like VMs;
  • Are Application Program Interface (API) driven and accessible just like VMs;
  • Do not use a Hypervisor; and
  • Are hardware specialized for database services, low-latency caching, or web-request handling.
  • 100% の独立性を持ち、自身の CPU 以外に負荷はなく、他のサーバーからの影響も排除される。
  • VM と同様に、数分でプロビジョニングを完了できる。
  • VM と同様に、API を介した駆動とアクセスを実現する。
  • ハイパーバイザーは使用しない。
  • DB サービス/低レイテンシ・キャッシング/Web リクエスト処理などにハードウェアを特化できる。

To give an example of the hardware specialization, a database-focused OnMetal server would have the following specs:

以下は、データベースに特化した OnMetal サーバーの、ハードウェア仕様のサンプルである:

  • Flash storage: 3.2 Terabytes
  • RAM: 128 Gigabytes
  • IOPS: Greater than 200,000

The Rackspace website offers the following additional details for the OnMetal service:

また、Rackspace は OnMetal サービスに関して、以下のような詳細を、その Web サイトで提供している:

  • Fast provisioning: OnMetal Servers can be provisioned in less than five minutes.
  • Integrated administration: Use the same control panel and API interfaces for both OnMetal servers and virtual-cloud servers.
  • Consistent performance: Single-tenant architecture eliminates "noisy neighbors," and no performance hits to the virtualization layer.
  • Open-source standards: Avoid being locked into a proprietary solution, as hardware and software are both open source.
  • High-performance networking: Each cabinet includes two 10Gb/s network connections in a high availability Multi-Chassis Link Aggregation with minimal over-subscription to help increase throughput and performance for your applications.
  • Fast provisioning: OnMetal Servers は 5分以内にプロビジョニングされる。
  • Integrated administration: OnMetal/VM サーバーに対して、同一のコントロール・パネルと API インターフェイスが提供される。
  • Consistent performance: シングル・テナント・アーキテクチャにより "noisy neighbors” を排除し、また、仮想レイヤによるパフォーマンス劣化も排除する。
  • Open-source standards: ハードウェアとソフトウェアはオープンソースであるため、プロプライエタリ・ソリューションにロックインされない。
  • High-performance networking: それぞれのキャビネットには、2つの 10Gb/s ネットワーク接続が含まれる。この、高可用性 Multi-Chassis Link Aggregation と、最小限の over-subscription により、アプリケーションのスループットとパフォーマンスを高レベルに保つ。

Satisfied clients

During the announcement, Rhodes introduced several Rackspace clients that are onboard with the OnMetal approach. Zach Rosen, CEO and cofounder of Pantheon Systems, said, "We’ve all been trained to think of the cloud as generic virtual machines on demand. VMs have had their decade. The future ‘Cloud’ will be built with containers deployed across bare-metal servers provisioned via API. We believe Rackspace’s OnMetal service is the future of Infrastructure as a Service.”

このアナウンスメントにおいて Rhodes は、OnMetal アプローチに賛同する、何社かの Rackspace クライアントを紹介している。Pantheon Systems の coFounder and CEO である Zach Rosen は、「 私たちの、すべてが、オンデマンドで仮想マシンを生成するものが、クラウドだと教えこまれてきた。そして VM は、その十年を享受した。しかし、これからのクラウドは、API を介してプロビジョニングされたベアメタル・サーバー上に、デプロイメントされるコンテナにより構築されるだろう。 私たちは、Rackspace の OnMetal サービスが、IaaS の未来になると信じている」と述べている。

OnMetal is available now through an early availability program, and will be in general availability by late July 2014. To learn more and to sign up for a test drive, head over to this page at Rackspace.

現時点の OnMetal は、early availability program として利用できる。 そして、一般的な運用は、7月の後半から開始される。 テスト・ドライブについては、この Rackspace のページで確認し、Sign Up してほしい。

ーーーーー

ハードウェアの性能が高まり、それかオープンソース化により低価格で提供されるようになると、サーバーを設計/構築する上での発想が、その根底から刷新されます。 ハードウェアが高価であった時代の改革者であった VM も、最先端のポジションを Bare-Metal に明け渡し、それをサポートするものへと、役割を変えていくのかもしれませんね。 San Antonio の Rackspace HQ で、第2回めの OCP Summit が開催されたのが 2012年 5月ですから、そこから 2年の月日が流れています。 頑張りましたねと、声をかけてあげたくなる、Rackspace です!

ーーーーー

<関連>

Rackspace と CERN が推進する OpenStack ハイブリッド戦略とは?
SAP と HANA が、Open Compute に恋する理由
Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
Open Compute Project : ついに Microsoft も参加を表明した!

%d bloggers like this: