Agile Cat — in the cloud

Akamai と OpenDNS が提携:もっと もっと Web を速くしたい!

Posted in Data Center Trends, Network by Agile Cat on August 29, 2014

Akamai signs deal with OpenDNS to make the web faster
http://wp.me/pwo1E-7Nn

By
Stacey Higginbotham – June 3, 2014
http://gigaom.com/2014/06/03/akamai-signs-deal-with-opendns-to-make-the-web-faster/

_ Giga Om

Summary: Akamai’s job is to speed up the web, but as more companies use alternative DNS services, that can be difficult. So it’s signed a deal with OpenDNS to get content to people faster.

Akamai の仕事は Web の高速化であるが、数多くの企業が代替の DNS サービスを使用するようになると、それも困難になり得る。したがって、より高速に、人々にコンテンツを提供するために、同社は OpenDNS と契約を締結することになった。

ーーーーー

Content delivery network Akamai is still attempting to speed up the web and it has teamed up with OpenDNS to add optimized DNS routing to its arsenal of services. For customers using OpenDNS, content hosted on Akamai’s servers will arrive faster — as much as four times fast in some cases. This is similar to the deal OpenDNS signed in 2011 with Google.

CDN を提供する Akamai は、さらに Web を高速化しようと試み、また、そのサービスの根幹である最適化された DNS ルーティングを追加するために、OpenDNS と提携することになった。それにより、OpenDNS を利用する顧客にとって、Akamai にホストされるコンテンツは、より高速に配信されることになり、また、いくつかのケースでは 4倍もの高速化が達成されるという。それは、2011年に Google が OpenDNS と提携したときに似ている。

photo
Mr. Vi/Thinkstock

Akamai signed this deal in January and now is announcing that it has implemented it in all of its locations. The partnership is based on a standard that attaches location data to a DNS request so a user’s request for content goes to server nearby. Typically, a CDN or content provider routes a user based on the address of the DNS server, as opposed to the user’s location, but they aren’t always in the same region, especially as more businesses choose alternative DNS providers such as OpenDNS, Dyn, Google’s service and others.

Akamai は、この契約を 1月に締結しており、いまでは、すべてのロケーションにおいて実装が完了していると発表した。そのパートナーシップは、DNS リクエストにロケーション・データを付加するという、スタンダードに基づいたものであるため、コンテンツに対するユーザー・リクエストは、最寄りのサーバーへと転送される。一般的に、CDN や コンテント・プロバイダーは、DNS サーバーのアドレスに基づき、ユーザーのロケーションとは反対の方向へと、ユーザーをルーティングしていくのだが、それらが、常に同じリージョンにいるとは限らない。 とりわけ、数多くの企業が、OpenDNS/Dyn/Google Service などの、代替の DNSプ ロバイダーを選択すると、その傾向が強くなる。

So now a user in Austin, Texas who types in the URL for a YouTube video will share part of his IP address as part of the DNS request. That way, the domain name system server can route the request to a Google data center in Dallas, as opposed to one in Ireland. This can substantially speed up access to content, which is what people hire Akamai for in the first place.

したがって、YouTube ビデオの URL を、Austin, Texas から入力するユーザーは、DNS リクエストの一部として自身の IP アドレスを共有することになる。この方式を用いれば、対象となる DNS サーバーは、そのリクエストを Dallas のGoogle データセンターへとルーティングできるようになり、Ireland に飛ばしてしまうようなことは、起こり得なくなる。そして、コンテントへのアクセスが、きわめて高速化されるが、人々が最初のロケーションとして Akamai を選ぶ理由も、そこにあるのだ。

Related research

How to deliver the next-generation web experience – January 2013
Infrastructure Q2: Big data and PaaS gain more momentum – July 2011
What to consider when architecting your organization for the cloud – May 2014

ーーーーー

いまから 2年ほど前に、「世界の DNS インフラも、地味ながら 頑張ってる!」という抄訳をポストしていますが、そこには、「5年前には、123 ヶ所の DNS ルート・サーバー・サイト(DNS のバックエンド)が、インターネット上に展開されていた。 それが、いまでは、2倍以上に膨れ上がり、300ヶ所を超すサイトが存在している」と記されていました。 そして、今日の記事を見る限り、DNS は更に進化しているようであり、また、Akamai がきわめて重要な役割を果たしていることも分かりますね。 もっと、もっと、Web を速くしてくださ~い。 

ーーーーー

<関連>

Akamai の 61,000 台のサーバーは、70カ国で 1,000 Networks をサポートする
この 3年間で、インターネット上での攻撃が 2000% も増えている – Akamai の調査
Akamai がダウンすると、インターネットも道連れに?
Rackspace と Akamai が、CDN サービスで提携
Akamai が 3.45 TBits / 秒のピークを記録

KDDI が 東京と大阪に構築する Telehouse DC は、超弩級の電力密度を誇る!

Posted in Asia, Data Center Trends, Telecom by Agile Cat on August 28, 2014

KDDI to Build New Telehouse Data Centers in Tokyo and Osaka
http://wp.me/pwo1E-7N3

By Marketwired  – August 27, 2014
http://www.sys-con.com/node/3162327

__ Market Wired

TELEHOUSE Invests in Expanding a Further 20MW of High Power Density Colocation Space in Japan

NEW YORK, NY — (Marketwired) — 08/27/14 — KDDI, the global telecommunications provider, announces today that it will invest $270 million (28 billion yen) investment ina the building of two new Telehouse data centers, "TELEHOUSE OSAKA 2," and "TELEHOUSE TOKYO Tama 3," scheduled to open in August 2015 and February 2016 respectively. These additional facilities will take the total amount of global TELEHOUSE data center space to approximately 4.0 million square feet, provided by 46 sites across 13 countries/territories and 24 major cities.

NEW YORK, NY — (Marketwired) — 08/27/14 — グローバル・テレコム・プロバイダである KDDI からの今日の発表によると、同社は $270 million (28 billion yen) を投資し、TELEHOUSE OSAKA2 および TELEHOUSE TOKYO Tama 3という、2つのデータセンターを構築し、それぞれを 2015年8月と 2016年2月にオープンすることになる。 これらのファシリティが追加されることで、13カ国/24主要都市の 46サイトに展開される、TELEHOUSE データセンターの総床面積は、400万平方フィート(約37万平米)に拡大される。

Both Osaka and Tokyo facilities will offer high-density colocation services enabling the hosting of heavy load IT infrastructure. The data centers will meet the growing demand for housing private enterprise clouds, along with public cloud service providers, online and media content companies. The facilities are designed to Tier 3+ data center standards in redundancy and uptime, and will be insusceptible to earthquakes by a long-period absorption structure, reflecting the high quality Global TELEHOUSE specifications. In addition, KDDI can provide a combined solution by providing direct access to the KDDI global network along with the data center.

Osaka と Tokyo のファシリティは、いずれも高負荷 IT インフラのホスティングを可能にする、高密度コロケーション・サービスを提供する。これらのデータセンターは、プライベート・エンタープライズ・クラウドにおける需要の高まりに対応するものとなるが、パブリック・クラウド・サービス・プロバイダーや、オンライン/メディア・コンテンツ事業にも提供される。 また、冗長性とアップタイムに関しては、高品質な Global TELEHOUSE スペックを反映した、Tier 3+ のデータセンター・スタンダードで設計され、また、地震に関しては長周期での吸収構造を用いることで、そのに影響を受けにくいデザインとなっている。それに加えて、KDDI Global Network へのダイレクト・アクセスを、これらのデータセンターに提供することで、KDDI は複合的なソリューションを実現していくとされる。

クリックでスペック・シート ⇒

Telehouse Osaka 2, located in the center of Osaka city, will offer 700 racks of tenancy space with up to 30kVA (designed) per rack. The technical and operations room will be situated above second floor avoiding the risk of potential flooding. Osaka 2 can be used as a disaster recovery and back-up site for the Tokyo data centers.

Telehouse Osaka 2 は、大阪市の中心部に位置し、ラックあたり 30kVA(designed)に対応する 700台のラックにより、テナント・スペースの構成する。テクニカルおよびオペレーションのための施設は、2階以上に配置され、水害による危険性を回避するものとなる。また、この Osaka 2 は、東京のデータセンター群のための、DR(disaster recovery)および Back-Up のサイトとしても用いられる。

Telehouse Tokyo Tama 3 will be located on the existing Tama data center campus, approximately 18 miles from the Tokyo city center in a highly guarded surrounding. The five story building will offer 1,300 racks of tenancy space with up to 42kVA (designed) power supply to racks, the highest(*1) in Japan and 5 times(*2) industry average, with a designed PUE 1.31 making it one of the most energy efficient data centers in Japan.

Telehouse Tokyo Tama 3 は、東京の中心部から 18マイルほど離れた、きわめてセキュアな環境の中で運用されている、Tama Data Center Campus 内に配置される。そして、5階建てのビルディングに収納される、ラックあたり 42kVA(designed)に対応する 1300台のラックにより、テナント・スペースの構成する。この電力密度は、日本で最高(*1)のものであり、また、業界平均の 5倍(*2)に達するものとなる。そして、PUE 1.31 を実現する、日本で最もエネルギー効率の良いデータセンターの1つとなる。

The Telehouse data center expansion reflects the growing demand for data center space in Japan’s metros, and the ability of KDDI to accommodate leading multinationals expanding their portfolios in Japan. By securing its domestic market share in Japan, KDDI continues to be the leader in premium data center facilities.

この、Telehouse Data Center の拡大は、日本における都市型データセンター・スペースに対する、需要の高まりを反映したものとなる。 そして、日本でのポートフォリオを拡大する、主だった多国籍企業を収容する、KDDI のキャパシティを拡大していくことになる。 日本国内でのマーケット・シェアを確かなものにすることで、KDDI は高品質データセンター・ファシリティのリーダーであり続けようとしている。

To learn more about TELEHOUSE America and KDDI visit http://www.telehouse.com and http://global.kddi.com/.

(*1) As of Aug 26. Research from KDDI based on public information.

(*2) Compared with TELEHOUSE data centers in Japan.

ーーーーー

Over 30kVA というのは凄まじいですね :) そろそろ、15kVA の時代かなぁ・・・ などと考えていた Agile_Cat などは、その予想を完全に覆されてしまい、かなりビックリしています。 もちろん、すべてのラックに、それだけの電力を供給できるという話ではなく、特定のラックに対してという話のはずですが、それにしてもスゴイことです。 排熱は、どうするのでしょうね? 今度、チャンスがあったら教えてもらいたいですねぇ。

ーーーーー

<関連>

ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期のデータセンター資産へ
シンガポール は データセンター 天国 : Equinix は語る
NTT は DC 事業者 RagingWire を買収し、国際戦略の要とするのか?
CloudStack がテレコムに好まれる理由 : 世界から集まった8名の証人たち

送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!

Posted in .Selected, Data Center Trends, Energy, Green IT by Agile Cat on August 21, 2014

A next-gen battery is coming soon to the power grid
http://wp.me/pwo1E-7LS

By Katie Fehrenbacher – Feb 4, 2014
http://gigaom.com/2014/02/04/the-power-grid-is-getting-a-lot-of-new-next-gen-battery-options-this-year/


_ Giga Om

Summary: Flow batteries are funky large batteries that use liquid tanks and pumps. There’s a new one being commercialized by a Silicon Valley startup.

Summary: フロー・バッテリーとは、液体のためのタンクやポンプを用いる、ちょっと型破りな大型のバッテリーのことである。そして、Silicon Valley のスタートアップにより商品化された、新しいプロダクトが登場した。

ーーーーー

2014 seems poised to be the year that next-generation battery technologies become more widely available for the power grid. On Tuesday a five-year-old venture capital-backed startup called Primus Power announced that it’s raised another round of $20 million in funding, which it will use to get its battery technology to its first utility and power customers this year.

2014年は、次世代バッテリー・テクノロジーが、送電網において広範囲に利用されるよう、準備を整える年になりそうだ。この火曜日(2/4)に、Primus Power( 5年間に渡りベンチャー・キャピタルの支援を受けてきた)というスタータップが、別のラウンドで $20 Million を調達したと発表した。そして、年内には、Utility and Power の顧客たちに、そのバッテリー・テクノロジーを提供できるようにするようだ。

Primus Power makes “flow batteries,” which store energy like the batteries in your laptop do, but which have the electrolyte (the substance that acts as the medium for the charging and discharging) separated out of the battery cell in liquid-filled tanks. The systems use a pump to move the liquid electrolyte over the electrode, which in turn stores energy.

Primus Power が作るフロー・バッテリーは、あなたのラップトップ PC に似たようなかたちで蓄電するが、その電解質(充放電のための媒体として作用する物質)は、液体で満たされたタンク内のバッテリー・セルから分離されている。つまり、このシステムはポンプを用いて、電極上に電解液を循環させることで蓄電していく。

The Primus Power shipping container, filled with flow batteries.

The benefit of this design is that flow batteries can be cheaper, can be more easily refillable, and can provide prolonged amounts of energy storage compared to traditional enclosed batteries. Primus Power’s flow batteries are supposed to be able to provide energy storage for over a period of four or five hours, while a lithium ion battery can provide energy storage for about an hour, Primus Power’s CEO Tom Stepien told me in an interview a couple years ago.

このデザインの利点として挙げられるのは、フロー・バッテリーが安価であり、電解液の充当が容易であり、また、従来からの封入型バッテリーと比べて、長時間にわたって電力を供給できる点にある。Primus Power のフロー・バッテリーは、4時間〜5時間にわたって放電できるようになっているが、リチウム・イオン電池の場合は、約1時間の放電が限界であると、Primus Power の CEO である Tom Stepien が、数年前のインタビューで語っていた

Primus Power sells an “EnergyPod,” (see above) which is basically a shipping container that’s filled with around a dozen flow batteries stacked on top of each other. Each EnergyPod has capacity to store 250 kW of energy for a cost of $500 per kWh. For large installations a utility can install multiple shipping containers and manage them with the computing and software that Primus Power also provides.

Primus Power が販売する EnergyPod は、輸送用コンテナをベースにしたものであり、その内部は、積み重ねられた十数基のフロー・バッテリーで満たされている。それぞれの EnergyPod は、250 kW を充電することが可能であり、そのコストは kWh あたり $500 となる。また、電力会社などが大規模な導入を行う際には、複数のコンテナをインストールすることが可能であり、Primus Power が提供するコンピューティングとソフトウェアにより、それらを管理できる。

The electrode sits at the top of the flow battery.

Power companies are looking to add energy storage technologies like batteries and flow batteries to the grid as a way to store energy generated by clean power sources like solar and wind, which only provide energy when the sun shines and wind blows. The idea is that a flow battery could store energy from, say, a wind turbine, when the wind is blowing extra hard, and the battery can release the extra energy over four or five hours as the wind dies down.

電力会社は、太陽光や風力といった、クリーンであっても生成が不安定なエネルギーを蓄積するための方式として、送電網にバッテリーやフロー・バッテリーなどの、エネルギー・ストレージ・テクノロジーを加えたいと考えている。この、フロー・バッテリーのアイデアにより、たとえば風力発電の場合なら、強風により余剰な電力が供給されるときに蓄電して、風が止んだらバッテリーから、4時間〜5時間ほどの放電が可能なるのだ。

While flow batteries have been on the market for awhile, Primus Power’s flow battery is supposed to be more efficient because it uses one tank, one flow loop, one pump, and no separator (many current ones on the market use two tanks and a separator). Primus’ electrode is also made of metal, compared to the felt or plastic electrodes of some competitors (so higher conductivity) and the electrolyte itself — that flows through the system — is zinc-based.

このところ、いくつかのフロー・バッテリーが市場に登場しているが、Primus Power のフロー・バッテリーは、タンク/フローループ/ポンプが1つずつで済み、また、セパレータが不要である(数多くのプロダクトが、市場で提供されているが、そのすべてが 2つのタンクを用い、セパレータを必要とする)。いくつかのコンペティタが、フェルトまたはプラスチック(もしくは、それ以上の導電率を持つ物質)の電極を用いているのとくらべて、Primus は金属製を用いている。また、そのシステムの全体を構成する電解質は、亜鉛ベースの材質となる。

An early version of Primus Power’s electrode.

Other startups that are building the next-generation of low cost batteries for the power grid include Ambri, Eos Energy, Aquion Energy and others. Several of these companies are looking to commercialize their technology this year. And it’s not just batteries that are emerging for energy storage and the power grid — startups like LightSail Energy and SustainX are working on reinventing compressed air energy storage.

その他にも、Ambri/Eos Energy/Aquion Energy などを含むスタートアップたちが、送電網用の低コスト次世代バッテリーを構築している。そして、そのうちの何社かは年内に、そのテクノロジーを商用化しようとしている。 ただし、こうした動きは、バッテリーだけにとどまらない。LightSail Energy や SustainX といったスタートアップは、圧縮空気によるエネルギー蓄積技術を改善することで、電力網のための電力ストレージに取り組んでいる。

Primus Power has raised a total of $35 million from investors including Kleiner Perkins, Chrysalix, DBL Investors and I2BF Global Ventures. The new round was led by South Africa-based resource developer Anglo American Platinum Limited. Primus has also received $20 million worth of grants from U.S. government agencies, like the Department of Energy.

Primus Power は、Kleiner Perkins/Chrysalix/DBL Investors/I2BF Global Ventures といった投資家たちから、合計で $35 Million の資金を調達している。今回のラウンドは、South Africa ベースの資源開発会社である Anglo American Platinum Limited が主催したものである。そして、ここでも Primus は、Department of Energy といったアメリカ政府機関から、$20 Million の助成金を得ている。

Primus Power is looking to use these latest funds to deliver their first EnergyPods to customers. Customers include a utility in Modesto, California, the Bonneville Power Administration in the Pacific Northwest, and a microgrid at the Marine Corps Air Station in Miramar, California. California could be home to many of these new power grid energy storage innovations, following the state’s decision to support a large amount of energy storage projects by 2020 in order to help the state meet its renewable energy mandate.

Primus Power は、それらの資金を用いて、最初の顧客たちに EnergyPods を供給しようとしている。そして、それらの顧客には、California の Modesto や、Pacific Northwest の Bonneville Power Administration といった電力会社や、California の Marine Corps Air Station におけるマイクログリッドなどが含まれる。California は、送電網のための、新たな電力ストレージ・テクノロジーの本拠地になれるかもしれない。それは、2020年までに再生可能エネルギーの活用を促進するという、州政府が決定した大量エネルギー・ストレージ・プロジェクトを、サポートするものでもある。

Related research

The fourth quarter of 2012 in clean tech – January 2013
The next generation of battery technology – October 2012
Cleantech third-quarter 2012 – October 2012

ーーーーー

今年の2月の記事であり、だいぶ時間が経ってしまいましたが、とても興味深い内容なので訳してみました。 日本でも、さくらインターネットなどによる 石狩超電導直流送電プロジェクトや、NTT Data による 高電圧直流給電(HVDC)テクノロジーといった、エネルギーとデータセンターの関係を再構築していこうという取り組みが進んでいます。 そして、この Primus Power の EnergyPods も、大がかりな蓄電は不可能という固定概念を、打ち破ろうとする試みとして捉えることが可能です。 まだまだ、時間はかかるでしょうが、それぞれの領域でテクノロジーが磨かれていくことで、安全でクリーンなエネルギーにより、データセンターが効率よく動き続けるという、新しい時代にたどり着けると信じています。

ーーーーー

<関連>

Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えるべき
Data Centers の調査 : データセンターの効率を多角的に考える
SoftBank と Bloom Energy が提携 : 最新の燃料電池が日本にやってくる!
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!
OCP データセンターと、高温多湿気候との関係について

Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期のデータセンター資産へ

Posted in .Chronicle, .Selected, Data Center Trends, Google by Agile Cat on August 19, 2014

Google: From 112 Servers to a $5B-Plus Quarterly Data Center Bill
http://wp.me/pwo1E-7Lz

Yevgeniy Sverdlik – July 23, 2014
http://www.datacenterknowledge.com/archives/2014/07/23/from-112-servers-to-5b-spent-on-google-data-centers-per-quarter/

_ DC Knowledge

It was only 15 years ago that Google was running on slightly more than 100 servers, stacked in racks Sergey Brin and Larry Page put together themselves using cheap parts – including insulating corkboard pads – to cut down the cost of their search engine infrastructure.

それは、たった 15年前のことである。Sergey Brin と Larry Page の手により、Google が 100台少々のサーバー上で動き始めたのだ。絶縁体として用いられるコルク・ボードパッドまで含めて、安価なパーツで構成されるサーバーが、ラックの中に積み上げられていった。そうすることで、検索エンジンのインフラ・コストを、彼らは削っていった。

That do-it-yourself ethos has stayed with the company to this day, albeit it is now applied at much bigger scale.

この、日曜大工的な精神は、そのまま同社に生き続けているが、いまでは比べものにならないスケールで適用されている。

Google data centers cost the company more than $5 billion in the second quarter of 2014, according to its most recent quarterly earnings, reported earlier this month. The company spent $2.65 billion on data center construction, real estate purchases and production equipment, and somewhat south of $2.82 billion on running its massive infrastructure.

7月初めに報告された、直近の四半期決算によると、2014年 Q2 における Google データセンターのコストは、$5 billion 以上とされている。 同社は、データセンターの建設および、不動産の取得、設備の購入などに$2.65 billion を投資し、また、大規模なインフラストラクチャを運用するために、$2.82 billion を費やしている。

The $2.82 billion figure is the size of the “other cost of revenue” bucket the company includes its data center operational expenses in. The bucket includes other things, such as hardware inventory costs and amortization of assets Google inherits with acquisitions. The size of this bucket in the second quarter represented 18 percent of the company’s revenue for that quarter. It was 17 percent of revenue in the second quarter of last year.

この $2.82 billion という数字は、データセンターの運用コストを含む、同社における「その他のコスト」を、大まかなところでザックリと示している。この数字には、たとえばハードウェア在庫の金額や、Google の買収先から継承する償却資産といったものが含まれている。今年の Q2 における、この数字の規模は、同じ Q2 の売上高に対する 18% を占めている。そして、昨年の Q2 では、この数字は 17% であった。

Google’s largest server order ever

While the amount of money Google spends on infrastructure is astronomically higher than the amount it spent 15 years ago, the company makes much more money per server today than it did back then.

いまの Google が、インフラに費やすコストは、15年前とくらべて天文学的に膨らんでいる。つまり、当時と比べて、サーバーごとに費やす金額が大きくなっているのだ。

“In retrospect, the design of the [“corkboard”] racks wasn’t optimized for reliability and serviceability, but given that we only had two weeks to design them, and not much money to spend, things worked out fine,” Urs Hölzle, Google’s vice president for technical infrastructure, wrote in a Google Plus post today.

「 いまになって、振り返ってみると、あの “コルク・ボード” ラックのデザインは、信頼性と保守性という意味で最適化されていなかった。しかし、二週間でデザインを完了し、しかも、多額の費用をかけられなかったことを考えると、上手くいったのだろう」と、Google の VP for Technical Infrastructure である Urs Hölzle が、今日の Google+ にポストしている。

One of Google’s early “corkboard” racks is now on display at the National Museum of American History in Washington, D.C.

In the post, Hölzle reminisced about the time Google placed its largest server order ever: 1,680 servers. This was in 1999, when the search engine was running on 112 machines.

そのポストで Hölzle は、当時としては史上最大である、1680 台のサーバーを発注したときの思い出にも触れている。 それは、1999年のことであり、すでに同社の検索エンジンが、112台のマシン上で実行されていたときの話しでもある。

Google agreed to pay about $110,000 for every 80 servers and offered the vendor a $2,000 bonus for each of the 80-node units delivered after the first 10 but before the deadline of August 20th. The order was dated July 23, giving the vendor less than one month to put together 800 computers (with racks and shared cooling and power) to Google’s specs before it could start winning some bonus cash.

Google は、80台のサーバーで構成される1ユニットに対して、$110,000 を支払うことに合意した。 そして、8月20日までに、最初の 80 ノード x 10ユニットを納入することで、ユニットごとに $2000 のボーナスを提供すると、そのベンダーに約束した。 この発注は 7月23日付けであり、そのベンダーは 800台のコンピューターを、1ヶ月足らずで調達しなければならなかった(ラックと共有ファンと電源も含む)。 しかも、ボーナスを手にする前に、Google の要求するスペックに合わせなければならない。

Hölzle included a copy of the order for King Star Computer in Santa Clara, California. The order describes 21 cabinets, each containing 60 fans and two power supplies to power those fans.

Hölzle は、そのブログ・ポストに、Santa Clara, California の King Star Computer 宛に発行した、発注書をコピーしてくれた。それは、21台のユニットを発注するものであり、それぞれに 60台のファンと、そのための 2つの電源が取り込まれるものであった。

There would be four servers per shelf, and those four servers would share:

1つのシャシーに 4台のサーバーが配置され、以下を共有する:

  • 400-watt ball bearing power supply
  • Power supply connector connecting the individual computers to the shared power supply
  • Two mounting brackets
  • One plastic board for hard disks
  • Power cable

Each server would consist of:

個々のサーバーの構成要素:

  • Supermicro motherboard
  • 265 megabytes of memory
  • Intel Pentium II 400 CPU with Intel fan
  • Two IBM Deskstar 22-gigabyte hard disks
  • Intel 10/100 network card
  • Reset switch
  • Hard disk LED
  • Two IDE cables connecting the motherboard to the hard disk
  • 7-foot Cat. 5 Ethernet cable

Google’s founders figured out from the company’s early days that the best way to scale cost-effectively would be to specify a simple server design themselves instead of buying off-the-shelf all-included gear. It designs its hardware on its own to this day. Other Internet giants that operate data centers at Google’s scale have followed suit.

Google の創設メンバーたちは、同社が立ち上がったときから、すべてのギアが取り込まれた既成品サーバーを購入するのではなく、ニーズに適合するシンプルなサーバーを自らデザインすることが、大きなスケールで費用対効果を向上させる方法だと、理解していたことになる。そして、ハードウェアを独自にデザインするという考え方は、今日まで続いている。 さらに言えば、Google スケールでデータセンターを運営する、他のインターネット・ジャイアントたちも、それを追随してきたことになる。

ーーーーー

とても面白い話なので、楽しみながら訳すことができました :) そして、分かったことは、今日に至るまで Google が、既成品としてのサーバーを、まったく購入していないという、徹底したカスタム路線を貫いていることです(多少の例外はあるかも?)。 いつ頃から、台湾の ODM に発注先が切り替わったのか、そのあたりは分かりませんが、データセンターを運用する側が、つまりユーザー側が、サーバーをデザインすべきという発想の原点が、ここにあるのでしょう。 Open Compute Project Japan を、お手伝いしている Agile_Cat としても、このトピックを皆さんと共有できて嬉しいです。 何かの機会があり、Washington, D.C. へ行くことがあるなら、National Museum of American History で初代 Google サーバーを見学したいものですね。

ーーーーー

<関連>

Google のインフラ投資は ケタ外れ:それを示す1枚のチャート
なぜ、IBM は Power チップをオープン化したのか? Google の戦略は何処にあるのか?
Facebook と Open Compute が、Wedge という名の オープン・スイッチを発表!
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
台湾の Wistron と Inventec が、ついに ARM サーバーの生産に着手する!
Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えなければならない

Level 3 と Digital Realty:ネットワーク帯域幅をスケールさせる環境に、AWS と Azure を取り込む

Posted in Data Center Trends, Hybrid, Telecom by Agile Cat on July 30, 2014

Level 3, Digital Realty provide direct connection to Amazon, Microsoft cloud services
http://wp.me/pwo1E-7HU
April 29, 2014 | By Sean Buckley
http://www.fiercetelecom.com/story/level-3-digital-realty-provide-direct-connection-amazon-microsoft-cloud-ser/2014-04-29

_ fiercetelecom

Level 3 Communications has established a new partnership with Digital Realty Trust where it will provide the data center provider’s customers in 14 U.S. and European markets access to its growing base of cloud service partners including Amazon Web Services (AWS Direct Connect) (NASDAQ: AMZN) and Microsoft Azure (NASDAQ: MSFT) (ExpressRoute).

Level 3 Communications が Digital Realty Trust と、新たなパートナーシップを確立した。それにより、U.S. と Europe における、14 ヶ所のデータセンター・プロバイダーを利用する顧客に対して、クラウド・サービス・パートナーへのアクセス基盤が拡張されるが、その中には Amazon Web Services(AWS Direct Connect)と、Microsoft Azure(ExpressRoute)も含まれる。

Through this relationship, the Digital Realty customers will have a new route to migrate and operate their applications to a hybrid cloud environment with the backing of Level 3’s deep network presence.

この提携により、Digital Realty の顧客は、Level 3 の緊密に張り巡らされたネットワークを後ろ盾とする、ハイブリッド・クラウド環境へとアプリケーションを移行する、新しい道筋を持つことになる。

While Level 3 is hardly alone in providing a direct access route to AWS and Microsoft Azure, Anthony Christie, chief marketing officer for Level 3, told FierceTelecom what sets it apart is the global nature of the offering.

Level 3 は、AWS や Microsoft Azure にダイレクト・アクセスのルートを提供する際に、それを単独で行うわけではないが、グローバルな性質により際立ったものになると、同社の Chief Marketing Officer である、Anthony Christie が FierceTelecom に語っている。

"One of the things that you’ll see from us that is different than what you’ll see from some of the other network service providers is we continue to leverage the global nature of our network," he said. "With Amazon, Level 3 will be listed as the most connected player to Amazon’s hosting and data centers around the world.”

「 誰もが分かる、他のネットワーク・サービス・プロバイダーの違いは、私たちのネットワークがグローバルな性質を活用している点である。Amazon においては、世界に点在する AWS ホスティング/データセンターと、最も数多く接続されているプレーヤーとして表示される」と、彼は発言している。

Another potential benefit of this pact for enterprise customers is they can adjust network bandwidth and storage levels as needed. During a holiday shopping season, a retailer could dynamically scale their bandwidth and only pay for what they consume as demand for computing capacity ramps.

エンタープライズ・カスタマーにおける、この協定による別の潜在能力は、ネットワーク帯域幅とストレージ・レベルを、必要に応じて調整できる点にある。たとえば、ホリデー・ショッピング・シーズン中の小売業者は、帯域幅をダイナミックに拡張することが可能であり、その突出したコンピューティング容量に対してのみ、対価を支払えば良いことになる。

In addition to scaling bandwidth, Digital Realty customers will gain the flexibility to choose the cloud model and cloud provider that best meet their needs, access bandwidth dynamically and pay only for what they use.

この帯域幅のスケーリングに加えて、Digital Realty の顧客たちは、クラウド·モデルとクラウド・プロバイダーを柔軟に選択するという、メリットを手にすることになる。 つまり、自身のニーズにフィットしたクラウドを選び、アクセス帯域幅をダイナミックに調整し、使用した分だけ対価を支払えるようになる。

Level 3 is also providing connectivity under its Cloud Connect Solutions program, including Layer 1, Layer 2 and Layer 3 connectivity.

さらに Level 3は、Cloud Connect Solutions プログラムのもとでコネクティビティを提供しており、そこには Layer 1/Layer 2/Layer 3 が取り込まれている。

"On a global scale, we can guarantee latency for connectivity for public and hybrid cloud environments at Layer 1," Christie said. "We’re working on Layer 2 and Layer 3, but because of the switched nature of those products, it’s a bit tricky."

「 グローバル・スケールにおいて、パブリック/ハイブリッド·クラウド環境での接続のために、レイテンシーを保証するのは Layer 1 となる。Layer 2 と  Layer 3 にも取り組んでいるが、それらのプロダクトにおけるスイッチの性質は少々トリッキーである 」と、Christie は発言している。

Christie added that "with our Layer 3 MPLS offer, what we’re enabling is instantaneous consumption by pre-provisioning ports into Amazon and into Azure so they can burst through and consume Amazon Web Services in the future."

私たちが提供する Layer 3 MPLS により、Amazon および Azure に対して、事前にプロビジョニングしたポートを介したバーストが可能になる。したがって、将来的には、バーストを介した Amazon Web Services の利用も実現される」と、Christie は付け加えている。

Related articles:

Level 3 gets ISO certification for security services in Latin America
Level 3 grabs two new multi-national enterprise wins
Level 3 connects network to 50 U.S. Air Force sites
Level 3’s Storey: M&A is an option, not a necessity

ーーーーー

このところ、「AT&T と Equinix:エンタープライズ向けのクラウド・アライアンスを締結」や「ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon 」といった抄訳をポストしましたが、この Level 3 と Digital Realty の戦略も同じところを狙っているように思えます。つまり、ダーク・ファイバーに投資してきた事業者が、帯域幅をスケールさせるネットワークの中に、コンピューティングとストレージをスケールさせるパブリック・クラウドを、つなぎ込んでいくという構図です。そして、ハイブリッド・クラウドを目指すエンタープライズにとっては、おそらく、最も分かりやすく、安心できるフレームワークなのでしょう。 とても、興味深いトレンドです。

ーーーーー

<関連>

世界のテレコム Top-3 を占める AT&T/Verizon/NTT:それを示す1枚のチャート
コロケーションの世界:グローバルの覇者 Equinix と アジア・チャンピオンの NTT を比較する
SingTel と TelecityGroup は、インターネットに依存することなく Azure 接続を実現する
Foxconn が Asia Pacific Telecom を合併:製造業からキャリアへの転身を図るのか?
NEC と Alcatel が 海底ケーブル・プロジェクトを受注:シンガポールとフランスを接続する!

ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon

Posted in Data Center Trends, Hybrid, Private Cloud, Telecom by Agile Cat on July 17, 2014

Dark fiber to inspire more confidence in cloud, says Verizon
http://wp.me/pwo1E-7FR
April 10, 2014 Written by
Jonathan Brandon
http://www.businesscloudnews.com/2014/04/10/dark-fibre-to-inspire-more-confidence-in-cloud-says-verizon/

_BCN

American telco Verizon announced the launch of a Secure Cloud Interconnect service (SCI) this week, using private IP addresses to connect its cloud and multiple cloud platforms together, beginning initially with Microsoft Azure. Michael Palmer, vice president of product development for Verizon said linking cloud platforms with private links will help inspire confidence in cloud service once again, which has waxed and waned over the past year.

US のテレコムである Verizon は、今週 (2014/04) に Secure Cloud Interconnect service (SCI) を立ち上げると発表した。それは、プライベート IP アドレスを用いて、同社のクラウドと多様なクラウド・プラットフォームを接続するものであり、最初のビジネスは Microsoft Azure からとなる。Verizon の VP of Product Development である Michael Palmer は、プライベート・リンクを用いたクラウドプラット・フォームの接続は、クラウド・サービスの信頼性をさらに高めるものであり、この1年の間、手塩にかけて育ててきたと述べている。

ーーーーー

Verizon said enterprises will be able to use its private IP service to connect to multiple cloud services including the Verizon cloud, beginning with Azure, and it expects an additional half-dozen other major cloud providers to come on board later this year. The service with Azure support is expected to go live this summer.

Verizon が言うには、自身のプライベート IP サービスを用いて、多様なクラウド・サービスとの接続を実現していく。 そこには、もちろん、Verizon のクラウドも含まれ、最初の接続先は Microsoft Azure となる。そして、今年の終わりまでには、5〜6 社の主要クラウド・プロバイダーも、そこに加えたいとしている。 なお、このサービスと Azure の組み合わせは、今年の夏には実運用に入る予定である。

Verizon announced the launch of its Secure Cloud Interconnect service (SCI) this week, which will use private IPs to connect its cloud and multiple cloud platforms together

It also said enterprises that have located their private cloud infrastructure in Equinix datacentres can directly access the service in 15 Equinix datacentres in the US, Europe and Asia-Pacific.

さらに言えば、それらのエンタープライズたちは、自身のプライベート・クラウド・インフラを、Equinix データセンターに設置することが可能であり、世界の 15ヶ所(US/Europe/Asia-Pacific)に点在する Equinix のデータセンターへと、ダイレクトに接続することも可能になる。

“With Secure Cloud Interconnect, Verizon is removing the barriers for enterprise cloud adoption,” said Michael Palmer, vice president of product development for Verizon. “The reality is that many organizations today use multiple clouds to meet their business and technical objectives, but there was no easy way to manage this environment.”

「 Secure Cloud Interconnect を用いることで、エンタープライズ・クラウドの採用における障壁を、Verizon は取り除いていく。現実に、今日における大半の法人が、自身のビジネスとテクノロジーに関する目標を達成するために、多様なクラウドを使用しているだろう。しかし、その全体的な環境を管理するための、簡単な方法は存在していなかった」と、Verizon の VP of Product Development である Michael Palmer は述べている。

“Our new offering uniquely gives enterprises everything they require in a multi-cloud environment – security, private connectivity, performance, simplicity and efficiency,” stated Palmer.

「 私たちだけが提示するサービスが、エンタープライズが多様なクラウド環境で要求する、すべての要素を提供していく。 具体的には、セキュリティ/プライベート接続/パフォーマンスであり、それらすべてが、簡潔かつ効率よく実現される」と、Palmer は言う。

The service will come with 10Gbps private links between supported cloud platforms including its own, and will boast dynamic bandwidth allocation with fully redundant connections, application performance throughput and quality of service monitoring, usage-based billing, provisioning and management via a centralised portal.

このサービスでは、自身のクラウドおよび他のクラウド·プラットフォーム間に、10 Gbps のプライベート・リンクが提供される。完全な冗長コネクションと、アプリケーション性能スループットを備えた、ダイナミック・バンドワイズ・アロケーションが実現され、また、センタライズされたポータルを介した、モニタリング/使用量ベースの課金/プロビジョニングといった、高品質のマネージメント環境が提供される。

“As enterprises look to cloud computing for speed, flexibility and efficiency, they also require a platform that offers enterprise-proven performance and reliability,” said Yousef Khalidi, distinguished Azure engineer at Microsoft.

「 エンタープライズが、クラウド·コンピューティングの高速性/柔軟性/効率性に目を向けるにつれて、そのための性能と信頼を提供してくれる、実績のあるプラットフォームが必要とされる」と、Microsoft の Distinguished Azure Engineer である Yousef Khalidi は述べている。

“We look forward to extending our cloud services to Verizon’s extensive network of clients through its security-enabled enterprise platform,” he added.

「 私たちは、セキュリティ対応のエンタープライズ・プラットフォームを介して、クライアントが利用する Verizon 大規模ネットワークに、自らのクラウド・サービスを拡張していけることを楽しみにしている」と、彼は付け加えている。

Whether in enterprises or public sector organisations, particularly the military, dark fibre has been deployed extensively to secure digital web-connected services. But many within the cloud security community view dark fibre as an essential element in the future internet, as the proliferation of cloud services and connected devices leaves organisations increasingly vulnerable to digital attack.

その対象が民間や行政であろうが、さらに言えば軍隊であろうが、Web 接続されたデジタル・サービスをセキュアにするために、ダークファイバーは広く展開されている。しかし、クラウド・セキュリティのコミュニティに参加する多くの人々は、将来のインターネットに不可欠な要素としてダークファイバーを見ている。そして、クラウド・サービスとデバイス接続の急増は、デジタル攻撃に対して脆弱な組織を、この現状の中に取り残しているのだ。

ーーーーー

このところ、いわゆるネットの中立性の問題では、FCC と並んで悪玉あつかいされがちな Verizon ですが、ダーク・ファイバーでクラウド間をダイレクトに接続していくという試みを、こうして明言することには、拍手を送りたいと思います。いまの、アメリカのキャリアたちは、ヨーロッパから入り込んできた Open-IX と、戦わざるを得ない状況にあります。 それは、Internet Exchange(IX)の在り方を再考する動きでもあり、レイテンシを削り取りながら、証券や金融などの分野にセキュアな環境を提供する『点としての IX』 と、大量のデータをより安価に、たとえばソーシャル・メディアなどのために転送する『面としての IX』を、上手く共存されていく方法論でもあると思えるのです。

ーーーーー

<関連>

SingTel と TelecityGroup は、インターネットに依存することなく Azure 接続を実現する
世界のテレコム Top-3 を占める AT&T/Verizon/NTT:それを示す1枚のチャート
NTT Com の、マレーシア 第4データセンターがオープンした
Foxconn が Asia Pacific Telecom を合併:製造業からキャリアへの転身を図るのか?
ネットの中立性: Verizon と AT&T の遅延をチャートで検証してみた

Digital Realty が 北米 4ヶ所のデータセンターで、Open-IX サーティフィケーションを取得

Posted in Data Center Trends, Open IX by Agile Cat on July 16, 2014

Digital Realty Receives Open-IX Certification for Four Data Centers in North America
http://wp.me/pwo1E-7Fu

By PR Newswire – April 2, 2014
http://www.sys-con.com/node/3041094

SAN FRANCISCO, April 2, 2014 /PRNewswire/ — Digital Realty Trust, Inc. (NYSE: DLR), the global data center and colocation company, announced today that it has received Open-IX certification for four of the company’s data centers: 111 8th Ave. in New York; 365 Main St. in San Francisco; 2260 E. El Segundo Blvd. in Los Angeles; and 850 E. Collins in Dallas. Clients will also have access to Open-IX from an additional 15 Digital Realty data centers through the Digital Realty ecosystem.

SAN FRANCISCO, April 2, 2014 /PRNewswire/ — 今日(4/2)グローバル・データセンターとコロケーションの事業者である Digital Realty Trust, Inc. (NYSE: DLR) が、同社のデータセンターが、Open‐IX の認定を受けたと発表した。 具体的には、111 8th Ave. in New York および、365 Main St. in San Francisco、2260 E. El Segundo Blvd. in Los Angeles、’850 E. Collins in Dallas の 4ヶ所となる。また、同社の顧客たちは、Digital Realty エコシステムを介して、その他の15箇所の Digital Realty データセンターからも Open-IX にアクセスできるようになる。

Additionally, Digital Realty is in the planning stages to obtain Open-IX certification for facilities in Chicago and Ashburn.

さらに、Digital Realty は、Chicago と Ashburn のファシリティにおいても、Open-IX の認定を得るという計画を進めている。

Interim CEO Bill Stein commented, "Digital Realty has been a strong advocate of providing the market with a more neutral and accessible internet exchange environment. We are delighted that we can now offer our clients access to our Open-IX certification in many of our North American properties. We will continue our commitment to the Open-IX community and internet exchange providers to extend and support a carrier- and ISP-positive environment."

Interim の CEO である Bill Stein は Digital Realty について「より中立的なかたちでアクセスできる、Internet Exchange 環境をマーケットに提供する流れを、強力に支持している。 そして、North American の大半の拠点において、Open-IX サーティフィケーションを顧客に提供できることを、とても嬉しく思っている。 私たちは、キャリアと ISP にとって理想的な環境を拡張しサポートしていくために、Open-IX コミュニティと Internet Exchange プロバイダーに対して、このコミットメントを今後も継続していく」と述べている。

The Open-IX Association is encouraging a more mutual and open model of internet exchanges, and interconnection within data centers, by issuing certification to IXP’s and data center providers who meet the standards set by the community.

Open-IX Association は、Internet Exchange における、より互恵的でオープンなモデルと、データセンター内での相互接続を奨励している。 そのために、このコミュニティにより設定された基準を満たす、Internet Exchange とデータセンターのプロバイダーに対して、サーティフィケーションを発行している。

"The ultimate objective of Open-IX is to reduce interconnection complexity and the associated costs to users in North America, similar to Europe, where the neutral and distributed internet exchange model is very common," added John Sarkis, Digital Realty Vice President of Connectivity. "Everyone benefits – our clients, their customers, and their end users – by having a more open internet exchange environment, bringing new levels of efficiency and resilience to all involved."

Digital Realty の VP of Connectivity である John Sarkis は、「Open-IX の最終的な目標は、North America におけるインターコネクションから複雑さを取り除き、それに付帯するユーザーのコストを削減することにある。 つまり、中立性と分散化が一般的になっている、Europe の Internet Exchange モデルと同じようにすることである。それは、よりオープンな Internet Exchange 環境を有し、すべての関係者であるクライアント/カスタマー/エンドユーザーに対して、より高められた効率性と弾力性および、新しいレベルをもたらすことに他ならない」と述べている。

Link to services and pricing on Digital Realty website.
Link to video of John Sarkis discussing the Digital Realty open internet exchange environment.
Link to photo of Digital Realty datacenter at 365 Main St. in San Francisco.

ーーーーー

Digital Realty は、日本においても大阪に用地を取得し、そのデータセンター・ビジネスを展開し始めたところです。この、2013年末の WSJ のインタビューでは、日本に続いてアジア各国にデータセンターを構築し、グローバルにおける比率を高めたいという方針が述べられています。同社は、データセンター事業者といっても、そのスペースを大口の顧客に提供するという、卸売とも言えるビジネスを主体としているようです。 そして、その顧客には、金融などのユーザーもいれば、コロケーションやクラウドなどをビジネスとして展開するユーザーもいるわけです。 日本において、そして、アジアにおいて、Open-IX を促進する同社の、これからの動向が注目されます。

ーーーーー

<関連>

AMS-IX NY の最初の入居者は Netflix : さらに勢いづく Open IX
AMS-IX が New York 市場に参入:Open IX が勢いづく!
Open IX のアメリカでの展開が加速する:バージニアで勢力を拡大する London IX
Open IX という組織が、インターネット接続を再定義する
コロケーションの世界:グローバルの覇者 Equinix と アジア・チャンピオンの NTT を比較する

Internap の ベアメタル OpenStack クラウドが、Hong Kong データセンターにも展開される!

Posted in Asia, Bare-Metal, Data Center Trends, OpenStack by Agile Cat on July 10, 2014

Internap Expands Bare-Metal Cloud Servers to London, Hong Kong Data Centers
http://wp.me/pwo1E-7Ek
by Yevgeniy Sverdlik on July 2, 2014
http://www.datacenterknowledge.com/archives/2014/07/02/internap-expands-bare-metal-cloud-servers-london-hong-kong-data-centers/

_ DC Knowledge

Data center service provider Internap has expanded its bare-metal public cloud service to data centers in London and Hong Kong. The service was previously available at the company’s Amsterdam, Singapore, Dallas, New York and Santa Clara, California, locations.

データセンター・サービス・プロバイダーである Internap が、そのベアメタル・パブリック・クラウド・サービスのためのデータセンターを、London と Hong Kong へと拡大してきた。 このサービスは、同社における Amsterdam/Singapore/Dallas/New York/Santa Clara/California といったロケーションで、以前から利用できるようになっていた。

Bare-metal cloud servers are essentially dedicated managed servers customers can provision like they provision cloud virtual machines. The offering, also available from Internap rivals like Rackspace and IBM SoftLayer, provides performance of dedicated servers along with elasticity of a public cloud service.

ベアメタル・クラウド・サーバーは、基本的に顧客専用のマネージド・サーバーであり、そのプロビジョニングに関しても、クラウドの仮想マシンのように行えるものとなる。この Internap のサービスも、Rackspace や IBM SoftLayer といったライバルと似たものであり、パブリック・クラウド・サービスのエラスティックな特性と一緒に、専用サーバーによるパフォーマンスを提供する。

Internap said it was addressing demand by companies running globally distributed data-intensive applications, such as Big Data analytics, mobile and digital advertising and online gaming. Such applications can suffer from performance issues when sharing physical resources with other applications.

Internap は、グローバルに分散したデータ集約型アプリケーション(Big Data分析/モバイルとデジタルの広告/オンライン・ゲームなど)を運用している企業の、需要に対して取り組んでいると発言している。このようなアプリケーションは、物理リソースを他のアプリケーションと共有することで、パフォーマンスの問題を生じる場合がある。

The provider’s bare-metal cloud offering, called AgileCloud, is coupled with its patented Managed Internet Route Optimizer technology, which continuously analyses Internet performance and routes customer traffic over the best available path.

この AgileCloud と呼ばれる、ベアメタル・クラウド・サービスは、Managed Internet Route Optimizer テクノロジーの特許と組み合わせて提供される。それにより、インターネット・パフォーマンスを継続的に分析し、顧客のトラフィックを最適な経路へとルーティングすることが可能になる。

“Organizations deploying real-time, data-intensive applications are increasingly seeking cloud services that provide flawless performance, reliability and cost efficiency across globally distributed environments,” said Christian Primeau, senior vice president and general manager of cloud and hosting at Internap. “Our bare-metal cloud uniquely addresses these demands, and the addition of our London and Hong Kong locations delivers broader reach in key end user markets.”

「データ集約型アプリケーションをリアルタイムでディプロイする企業は、完璧な性能/信頼性/コスト効率を、グローバルに分散された環境で提供できる、クラウド・サービスへの需要を高めている。 私たちのベアメタル・クラウドは、それらの要求に独自の発想で対処し、また、London と Hong Kong というロケーションを追加したことで、広範囲におよび主要エンドユーザー・マーケットへの、より幅広いリーチを実現していく」と、Internap の VP and GM of Cloud and Hosting である Christian Primeau は述べている。

Internap’s competitors in the space have been very active.

しかし、この領域における Internap のコンペティタたちも、きわめてアクティブである。

IBM announced earlier this year that it would invest $1.2 billion in expanding physical footprint of the SoftLayer cloud. Earlier this week the company announced the most recent addition to that footprint: a new data center in London.

今年の初めに、IBM は SoftLayer クラウドの物理フットプリントを拡大するために、$12 Billion を投資するとアナウンスしている。そして、今秋には、London の新しいデータセンターを、そのフットプリントへ追加すると発表した。

Rackspace in June rolled out a brand new bare-metal cloud offering, called OnMetal. The company has custom-built servers to support the offering using Open Compute designs as a basis.

そして 6月には、Rackspace も OnMetal という新しいブランドの、ベアメタル・クラウド・サービスを立ち上げた。当社は、そのサービスをサポートするために、Open Compute デザインを基本として用いた、カスタム・サーバーを構築している。

ーーーーー

 Internap と言えば、OpenStack 陣営の中で、最も早くビジネスを立ち上げたプロバイダーですが、その後は、あまり話題になっていなかったようにも思えます。 しかし、この記事を見ると、着実にテクノロジーを積み上げ、ベアメタル・クラウド・サービスでは Rackspace と競合するほどの、ポジションを確保しているような感じがします。 それと、インターネット・パフォーマンスの分析とルーティングの最適化を行ってくれる、Managed Internet Route Optimizer テクノロジーというのが、とても気になります。 これからは、ネットワークも含めた SLA が、クラウドを選ぶ際の要因になっていくのでしょうかね?

ーーーーー

<関連>

Internap は $30M で Voxel を買収し、さらに OpenStack を推進する
OpenStack の一番手 – Internap のビジネスが始まる
Internap が構築する、OpenStack-Based のオリジナル・パブリック・クラウドとは?
Rackspace の OnMetal サービスが、Post-VM 時代のクラウドを提起する
IBM のクラウド戦略:SoftLayer London データセンターが立ち上がる

%d bloggers like this: