Agile Cat — in the cloud

Google データセンターの世界:とても豪華な写真集

Posted in Data Center Trends, Google by Agile Cat on October 31, 2014

Take A Rare Peek Inside The Massive Data Centers That Power Google
Christian Storm – Oct. 22, 2014

_ Business Insider

Data centers are typically shrouded in secrecy because they are the brains behind tech companies.


But not Google. The search giant has shared with the world photos that lift the veil off its massive and beautiful data centers around the world, in places both domestic, including Iowa, Oregon, Georgia, South Carolina, and Oklahoma, and abroad, in Finland and Belgium.

しかし、Google は違うようだ。 このサーチ・ジャイアントは、世界に点在する美しい大規模データセンターのベールを開き、その写真をシェアしてくれたのだ。アメリカ国内からは Iowa/Oregon/Georgia/South Carolina/Oklahoma が、また、国外からは Finland/Belgium が、この写真集に参加している。

Google says when you’re on its website, you’re accessing one of the most powerful server networks in the known universe. Looking at these images, it’s hard to disagree.

Google が言うには、あなたが同社の Web サイトにいるとき、この世界で最もパワフルなサーバー·ネットワークの何処かにアクセスしていることになる。 これらのイメージを見ると、それを否定するのも難しくなる。

Google has been working on building its data centers for over 12 years. The search giant’s centers are efficient, take advantage of renewable energy, and are as environmentally friendly as possible.

Googleは 12年以上に渡り、自身でデータセンターの構築に取り組んできた。 このサーチ・ジャイアントのデータセンターは、きわめて効率的であり、また、再生可能エネルギーを活用し、可能な限り環境に優しいデザインとなっている。

↓ クリックで Facebook アルバムへ ↓

_  space

The following tour is a glimpse inside a few of Google’s data centers, which it calls the "physical internet."

このツアーでは、一部の Google データセンターの、その内部を垣間見ることができる。 それは、物理層のインターネットと呼ばれるものである。

Kevin Smith wrote an earlier version of this post.


データセンターの話になると、その規模や、ユニークなデザイン、そして情報の透明性という意味で、この Google と Facebook が抜きん出た存在となります。 そして、写真を用いた紹介となると、Facebook の方が開放的と思っていましたが、今回の写真集でそのイメージも大きく変わりました。 外気導入と自然空冷を用いる Facebook とは異なり、水冷を多用する Google のデータセンターは、その内部に張りめぐらされたパイプが特徴ですが、カラフルなペイントで色分けすることで、とてもポップな雰囲気を生み出していますね


Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期の DC 資産へ
Google は言う:クラウドの料金も ムーアの法則に従うべきだ!
Google が オランダの海岸線に作る、120MW の Eemshaven DC とは?
Google のインフラ投資は ケタ外れ:それを示す1枚のチャート
Google のインフラ投資額 : これまでに $21B をデータセンターに!
Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう


Digital Ocean が IPv6 の完全サポートを発表:放置すれば クラウドの普及が IP アドレスの問題を悪化させる

Posted in Data Center Trends, Digital Ocean, Network by Agile Cat on October 9, 2014

Upstart cloud player Digital Ocean to roll out IPv6 worldwide

By Barb Darrow – Jun. 17, 2014

_ Giga Om

Summary: Digital Ocean needs a ton more IP addresses for all those compute “droplets” it runs for customers. So it’s moving all its data centers to IPv6 by years’ end.

Summary: Digital Ocean は、その顧客たちが実行する、Droplets という名のコンピューティングのために、膨大な IP アドレスを必要としている。 それ故に、今年の末までに、すべてのデータセンターを IPv6 に移行するという。

Digital Ocean

We’ve heard the IPv6 wave is coming — although none too soon — and Digital Ocean is going to ride it. The New York City-based IaaS provider plans to announce Tuesday that it is adding support for the new protocol — which will open up millions of new IP addresses — in its data centers in Singapore, Amsterdam, New York, and San Francisco.

以前から、IPv6 の波は来ているのだが、誰もが知らぬ素振りをする中で、Digital Ocean は乗ると決めたようだ。この New York ベースの IaaS プロバイダーは、無数の IP アドレスへ向けてドアを開ける新しいプロトコルのサポートを、Singapore/Amsterdam/New York/San Francisco のデータセンターに加えると、火曜日(6/17)に発表する予定である。

It’s a sort of rolling release, however. Singapore is up first, where the support will be tested out and the company will use that experience to implement across the other data centers, CEO Ben Uretsky said in a recent interview. All of those data centers should be fully aboard IPv6 by years’ end, he added.

しかし、このリリースでは大雑把すぎる。CEO である Ben Uretsky が最近のインタビューで語ったところによると、そのためのテストを行なっている Sigapore が、最初に IPv6 サービスを立ち上げ、そのエクスペリエンスを他のデータセンターに展開していくようだ。この年末までに、すべてのデータセンターは、完全に IPv6 に乗っているはずだと、彼は付け加えている。

With more mobile devices, sensors and — face it — virtual machines running in clouds coming online by the minute, the demand for unique IP addresses is exploding and that’s leading to IPv4 IP address exhaustion. “The issue is that IPv4 provides something like 4 billion unique addresses, which seemed sufficient in 1980 when the protocol was created, but nowadays there are billions of smartphones alone,” he noted. There are IPv4 workarounds, but they are not elegant, he said.

大量のモバイル・デバイスとセンサーに対応するためには、クラウド上の仮想マシンを次々と立ち上げ、オンライン接続していく必要がある。ユニークな IP アドレスに対する需要は爆発的なものとなり、また、IPv4 IP アドレスは枯渇へと向かっていく。Ben Uretsky は、「 IPv4 プロトコルが作成された 1980年当時には、40億の IP アドレスで充分だと思われていたが、そこに問題が生じている。しかし、いまでは、スマートフォンだけでも数十億台が存在しているのだ。IPv4 による、その場しのぎの回避策もあるが、エレガントではない 」と、指摘している。

The regional IP address authorities — the American Registry for Internet Numbers (ARIN) in the U.S. — have pretty much hit the bottom of the barrel. Uretsky said there are about 15 million IPv4 addresses left in the U.S. with Europe and Asia pretty much sold out, while there is some remaining capacity in Latin America and Africa. (Microsoft already occasionally assigns IP addresses from other regions to U.S. workloads and if Microsoft can’t get new IPv4 addresses you know we’re in dire straits.)

US におけるリージョナル IP アドレス管理組織である American Registry for Internet Numbers (ARIN) は、その枯渇を訴えている。 それでも、US には 1500万ほどの IPv4 アドレスが残っているが、Europe と Asia の状況は悪化しており、Latin America と Africa には若干の余裕があると、Uretsky は述べている。(すでに Microsoft は、US のワークロードに対して、他の地域からの IP アドレスを割り当てている。 このようなかたちで、Microsoft が新たな IPv4 アドレスを取得できなくなると、私たちは苦境に陥ると認識すべきだ)

Source: Akamai

“Cloud computing has accelerated pace of IP address consumption — each of these Droplets we sell and every single Amazon EC2 server needs one. Cloud vendors lowered the barriers to entry but we also exacerbated this address problem,” Uretsky said.

「 クラウド・コンピューティングにより、IP アドレスの消費ペースが加速している。 私たちが販売している個々の Droplets や、それぞれの Amazon EC2 などが、1つの IP アドレスを必要とする。クラウド·ベンダーにより参入障壁が引き下げられたが、このアドレスの問題を、私たちは悪化させている 」と、Uretsky は発言している。

What this means is that all the big cloud providers — Microsoft Azure, Amazon Web Services, Google etc — need to get off the stick vis-a-vis IPv6 support in their clouds which should happen sooner rather than later. (Google App Engine does support IPv6, as does Amazon’s ELB load balancing service.) IBM SoftLayer already supports IPv6 and Verizon Cloud, due out this year, also supports IPv6.

彼が言いたいのは、すべての大手クラウド・プロバイダーたち(Microsoft Azure/Amazon Web Services/Google など)が、IPv6 サポートに関する睨み合いをやめて、それぞれのクラウドにおいて、直ちに対応すべきという点に集約される(Google App Engine や、Amazon ELB load balancing service などは、IPv6 をサポートしている)。IBM Softlayer は、すでに IPv6 をサポートしている。 また、Verizon Cloud も、年内には IPv6 をサポートするとしている。

Related research

What developers should know when choosing an MBaaS solution Sept 2013
The importance of benchmarking clouds June 2014
Consumer products will drive enterprise breakthroughs June 2014


最後のマトメを読むと、それぞれのクライド・プロバイダーが、IPv6 サポートに取り組んでいるようですが、この元気の良いスタートアップが、それらの先輩たちを急かしているように見えてきます。 文中にもあるように、1980年当時は 40億の IP アドレスで充分と思われたとしても、少なくとも 10億台近いスマホが、今年だけで増えそうというご時世なのですから、やはり、クラウド事業者には考えて欲しい問題ですよね。



これが DigitalOcean だ! AWS 以上のペースでサーバーを増し、ビヨンセ様の夢もかなえる!
DigitalOcean が シンガポールに上陸する! それを 支えるのは Equinix だ!
Akamai と OpenDNS が提携:もっと もっと Web を速くしたい!
Equinix が新たに展開する Performance Hubs とは?
Facebook と Open Compute から、Wedge という名の オープン・スイッチが発表された!
Cisco レポート 2014年版:モバイル・トラフィックの世界 No.1 は、日本の 1.87GB/月だ!

Google は言う:クラウドの料金も ムーアの法則に従うべきだ!

Posted in .Chronicle, .Selected, Amazon, Businesses, Data Center Trends, Energy, Google by Agile Cat on October 2, 2014

Google Says Cloud Prices Will Follow Moore’s Law: Are We All Renters Now?
Wednesday, May 14, 2014

_ highscalability

After Google cut prices on their Google Cloud Platform Amazon quickly followed with their own price cuts. Even more interesting is what the future holds for pricing. The near future looks great. After that? We’ll see.

Google が、その Google Cloud Platform の価格を引き下げ、すぐに Amazon も追随した。さらに興味深いのは、将来における価格の設定である。 おそらく、近い将来に、素晴らしい状況になるだろうが、なにが、そうさせるのだろう?

Adrian Cockcroft highlights that Google thinks prices should follow Moore’s law, which means we should expect prices to halve every 18-24 months.

Google が考えているのは、その価格はムーアの法則に従うべきだというものであり、18ヶ月〜24カ月で半額になることを期待できるはずだと、Adrian Cockcroft は強調している。

That’s good news. Greater cost certainty means you can make much more aggressive build out plans. With the savings you can hire more people, handle more customers, and add those media rich features you thought you couldn’t afford. Design is directly related to costs.

それは良いニュースだ。 大幅にコストが引き下げられるなら、あらゆる計画を、より積極的に立案していける。クラウド・コストの削減により、より多くの人材を雇用し、より多くの顧客に対応し、余裕がなければ対処できないことを、それらのメディアを用いて実現していける。 デザインというものは、コストの影響をダイレクトに受けるのだ。

Without Google competing with Amazon there’s little doubt the price reduction curve would be much less favourable.

Amazon と競合する Google という存在がなければ、低価格化の曲線は、はるかに魅力のないものであったいう疑念が、少なからず残される。

As a late cloud entrant Google is now in a customer acquisition phase, so they are willing to pay for customers, which means lower prices are an acceptable cost of doing business. Profit and high margins are not the objective. Getting market share is what is important.

遅れてクラウド(IaaS の意味)に参入してきた Google にとって、いまは顧客を獲得するフェーズにある。 したがって、顧客がビジネスを展開しやすいような、低コストを提示するという、利益を度外視した戦略をとってきている。つまり、大きな利益やマージンは二の次なのである。 そして、マーケットでシェアを取ることが最優先されている。

Amazon on the other hand has been reaping the higher margins earned from recurring customers. So Google’s entrance into the early product life cycle phase is making Amazon eat into their margins and is forcing down prices over all.

その一方で、Amazon は、継続して利用してくれる顧客から、より高い利益率を享受してきた。つまり、確立しつつあるプロダクト・ライフサイクルのフェーズに、Google が乱入してきたことで、Amazon のマージンは圧縮され、すべてにおいて価格の引き下げを強いられている。

But there’s a floor to how low prices can go. Alen Peacock, co-founder of Space Monkey has an interesting graphic telling the story. This is Amazon’s historical pricing for 1TB of storage in S3, graphed as a multiple of the historical pricing for 1TB of local hard disk:

しかし、低価格化が行き着く先としての底値があるのだ。Space Monky の co-founder である Alen Peacock が、そのストーリーを説明する、興味深いチャートを提供している。それは、1TB のハードディスクをローカルで持つ場合と、1TB のストレージを Amazon の S3 に持つ場合で、何倍の対価が発生するのかを、時間軸の中に示すものとなっている。

_  space

Alen explains it this way:

Cloud prices do decrease over time, and have dropped significantly over the timespan shown in the graph, but this graph shows cloud storage prices as a multiple of hard disk prices. In other words, hard disk prices are dropping much faster than datacenter prices. This is because, right, datacenters have costs other than hard disks (power, cooling, bandwidth, building infrastructure, diesel backup generators, battery backup systems, fire suppression, staffing, etc). Most of those costs do not follow Moore’s Law — in fact energy costs are on a long trend upwards. So over time, the gap shown by the graph should continue to widen.

クラウドの価格は、時間の経過とともに低下し、また、前述のチャート(上記のものとは別のもの)における時間軸では、かなりのペースで下落している。 しかし、このチャートは、クラウド・ストレージの価格と比べて、何倍かの速度でハードディスクの価格が下落している様子を示している。つまり、ハードディスクの価格は、データセンターの価格よりも、はるかに速く下落しているのだ。なぜなら、データセンターのコストには、ハードディスク以外のもの(電源/冷却/帯域幅/建造物/非常用ジーゼル発電機/バッテリ·バックアップ·システム/消火設備/人材など)が含まれるからである。これらのコストの大半は、ムーアの法則に従わないものであり、実際のところ、電力コストの長期的な傾向は上昇曲線にある。 したがって、上記のチャートで示されるギャップは、時間をかけながら広がり続けるはずである。

The economic advantages of building your own (but housed in datacenters) is there, but it isn’t huge. There is also some long term strategic advantage to building your own, e.g., GDrive dropped their price dramatically at will because Google owns their datacenters, but Dropbox couldn’t do that without convincing Amazon to drop the price they pay for S3.

あなた自身でストレージを構築すれば(データセンターにホストされる)、経済的な利点があるが、それほど大きなものではない。それならば、長期的な戦略として、データセンターを自分で構築するという考え方もある。Google は、自身でデータセンターを所有しているため、GDrive の価格を意図的に引き下げることができる。 しかし、Dropboxが、同じように価格を引き下げようとするなら、S3 のコストを引き下げるよう、Amazon を説得しなければならない。

Costs other than hardware began dominating in datacenters several years ago, Moore’s Law-like effects are dampened. Energy/cooling and cooling costs do not follow Moore’s Law, and those costs make up a huge component of the overall picture in datacenters. This is only going to get worse, barring some radical new energy production technology arriving on the scene.


What we’re [Space Monkey] interested in, long term, is dropping the floor out from underneath all of these, and I think that only happens if you get out of the datacenter entirely.

私たち Space Monkey が、長期的な視点として興味を持っているのは、それらすべての背景から引き離して、いまの下限値を引き下げられるかどうか、という点である。 そして、あなたがデータセンターの中に、まったく踏み込まないのなら、そうなる可能性もあると思えるのだ。

As the size of cloud market is still growing there will still be a fight for market share. When growth slows and the market is divided between major players a collusionary pricing phase will take over. Cloud customers are sticky customers. It’s hard to move off a cloud. The need for higher margins to justify the cash flow drain during the customer acquisition phase will reverse the favorable trends we are seeing now.

クラウド・マーケットの規模が拡大するにつれて、マーケット・シェアの戦いも続いていく。しかし、その成長が減速し、主要なプレーヤーがマーケットを住み分けると、結託した価格政策の時代へと引き継がれていく。クラウドの顧客は、そこに寄り添う顧客である。 したがって、クラウドから逃げ出すのは難しい。将来における高いマージンへの期待が、いまの顧客獲得のフェーズにおける、キャッシュ·フローの流出を正当化しているのかもしれない。そうだとすると、いまの好ましい流れが、いずれは逆転する状況を、私たちは目にすることになる。

Until then it seems the economics indicate we are in a rent, not a buy world.


Related Articles

  • IaaS Series: Cloud Storage Pricing – How Low Can They Go? – "For now it seems we can assume we’ve not seen the last of the big price reductions."
  • The Cloud Is Not Green
  • Brad Stone: “Bill Miller, the chief investment officer at Legg Mason Capital Management and a major Amazon shareholder, asked Bezos at the time about the profitability prospects for AWS. Bezos predicted they would be good over the long term but said that he didn’t want to repeat “Steve Jobs’s mistake” of pricing the iPhone in a way that was so fantastically profitable that the smartphone market became a magnet for competition.”


久々の High Scalability からの翻訳ですが、さすがは Todd Hoff さん、視点が鋭いです。 サーバーにしろ、ストレージにしろ、IT 機器はムーアの法則に則って、これから先もコストを引き下げていくのでしょうが、クラウドにはデータセンターならではのコスト、というものが含まれます。そして、インフラのレイヤを下っていって、電気料金のところまでいくと、そこは固定されていて動かしようがない、というのが普通の状況です。でも、Google が、そう言うからには、再生可能エネルギーの生産まで含めて、将来をデザインしているのかもしれません。 とても興味深い話ですね!



送電網の UPS として機能する次世代バッテリー・テクノロジー
eBay のデータセンターは、燃料電池から 6MW を絞り出す
Facebook の空母のような DC: 効率/温度/湿度 を Web モニタリング!
Google がフィンランドに作った海水冷 DC とは?
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!

ヨーロッパを 仮想 DC でカバーする、謎の Interoute クラウドが香港に進出!

Posted in .Selected, Asia, Data Center Trends, Hybrid by Agile Cat on October 1, 2014

Interoute opens in Hong Kong data center
New facility expands reach at a time when more companies are looking east
7 April 2014 by Eira Hayward

_ DC Dynamics

Interoute is taking its cloud computing solution to the Far East with the opening of a Virtual Data Center (VDC) in Hong Kong. It means Interoute customers can now choose from seven VDC zones – Amsterdam, Berlin, London, Paris, Milan or Hong Kong – to gain fast access to their applications and data.

Interoute は Hong Kong に Virtual Data Center(VDC)をオープンすることで、そのクラウド·コンピューティング·ソリューションを Far East に持ち込もうとしている。それにより、Interoute の顧客たちは、アプリケーションとデータへの高速でのアクセスを達成するために、Amsterdam/Berlin/London/Paris/Milan/Hong Kong などで構成される 7つの VDC ゾーンを選択できるようになる。

Interoute plays to its network advantage, offering one SLA for both networking and cloud computing and not charging for data transfer. Interoute general manager for cloud computing Lee Myall said the expansion has come primarily as a result of European businesses pushing east.

Interoute の特徴は、ネットワークのアドバンテージにあり、ネットワーキングとクラウド・コンピューティングの双方を網羅する単一の SLA を提供するが、データ転送について課金することはない。Interoute の General Manager for Cloud Computing である Lee Myall は、今回の拡張について、欧州企業をアジアにプッシュするという、主要な目標を達成するための結果だと説明している。

クリックで拡大 ⇒ 

He said there would be more VDCs to come, both in the Far East and elsewhere, as Interoute continues to expand. “This expansion is about pushing compute power to the boundaries of our network, but I can foresee that computing will start dragging the network to a few places,” Myall said. “Hong Kong is already filling up – we have customers with big migration plans who are going live at the moment.”

Myall が言うには、Interoute が拡大し続けるにつれて、Far East などの地域で、これまで以上の VDC が立ち上がっていくようだ。「 この拡張は、私たちのネットワークの境界線へ向けて、コンピューティング・パワーをプッシュするものだが、そのコンピューティングが私たちの領域を、押し広げ始めると予見している。すでに Hong Kong は満杯であり、これから移行しようと計画している、たくさんの顧客を持っている」と、彼は続けている。

The VDC is built into the core of Interoute’s network and, according to the company, this means it can deliver a fully networked cloud which is faster and has greater resilience and security than other cloud computing services.

この VDC は、Interoute ネットワークのコアに組み込まれる。そして、同社によると、他のクラウド・コンピューティング・サービスと比較して高速であり、高い弾力性と安全性を保持する、フル・ネットワーク化されたクラウドを提供できることになる。

Interoute’s move comes at a time when spending on cloud services in Asia Pacific is growing at a CAGR of 30%, according to IDC, and the Asian market is providing robust growth for both local and Western multinationals.

この、Interoute の動きは、Asia Pacific のクラウド・サービスに対する支出が、30% の CAGR で成長していると、IDC が述べるタイミングで生じている。また、Asia のマーケットは、ローカルの企業と、西欧の多国籍企業に対して、堅調な成長をもたらしている。

Last week, for example, IBM announced that luxury children’s fashion retailer Club 21 will be using its cloud, e-commerce and analytics software to expand its online presence across Asia-Pacific, increasing its reach from four to 15 countries across the region.

例を挙げると、先週に IBM が発表したのは、高級子供服のリテーラーである Club 21 が、Asia-Pacific 全体にまたがるオンライン・プレゼンスを高めるために、そのクラウド/コマース/分析のソフトウェアを使用するというものだ。それにより、この地域においてリーチしていく対象が、4カ国から 15カ国に増えることになる。

The importance of Asian markets for multinational businesses was reinforced by recent pan-Asian large research project from Telstra Global which found that 83% of multinationals in Asia expect to either meet or exceed their financial and strategic objectives in the next three years.

多国籍企業にとって、Asia のマーケットの重要性は、Telstra Global が実施した Pan-Asia 大規模調査により裏付けられている。その調査では、Asia における多国籍企業の 83% が、今後の3年間で、それぞれの財務および戦略の目標を達成したいと望んでいることが分かった。

Telstra Global’s Connecting Countries report found that the ICT industry in particular is a stand-out success in Asia, with 71% of ICT companies having been very successful in Asia in the past three years, compared to 61% of companies across other sectors.

Telstra Global の Connecting Countries レポートは、とりわけ ICT 産業が、Asia のマーケットで成功していると指摘している。この地域における、これまでの 3年間のデータによると、ICT 企業の 71% が成功を収めているが、他の地域での成功率は 61% となる。

“Over the next three years both financial services and insurance companies and those in the ICT sector are most bullish about exceeding their objectives in Asia, with 55 and 51% respectively, compared to 42% across the board,” said Telstra Global managing director Martijn Blanken.

「 これからの 3年間において、金融サービスおよび保険会社と、その ICT 部門が、Asia で成功していくだろう。 それぞの目標値は、55% と 51% であるが、世界の平均は 42% である」と、Telstra Global の Managing Director である Martijn Blanken は述べている。


ヨーロッパのクラウドは、いったい、どうなっているのかと、以前から不思議に思っていました。 そして、数ヶ月ほど前に、この Interoute の存在を知ったのですが、同社の Web ページから拾ってきたマップを見ても、「なるほど、ヨーロッパ的だ」という雰囲気が漂ってきます。 アメリカ型の巨大データセンターを中心とする構造ではなく、それぞれの国や都市に分散するデータセンターを、メッシュ状にネットワークしていくという考え方のようです。 何年か前に、スマートグリッドのことを調べていて、国ごとに経済エリアを区切ることが、ヨーロッパでは必要だからという理由に、納得したことを思い出しました。 送電網もファイバー網も、国境ををまたいで物理的に結ばれているわけですが、経済を考えた場合に、どこかに論理的な仕切を入れる必要があるのでしょう。 ひょっとすると、1つの事業体に見える Interoute も、各国に分散する企業の集合体なのかもしれません。 この、謎だらけのヨーロッパ・クラウドを、これからも追いかけてみたいと思っています。



Hybrid 対 Public : ユーザーの必要性と、ベンダーの目論見は、どこで交差するのか?
ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Hybrid の調査: 企業データを分析すると、20-60-20 の 仕分けシナリオが見えてくる
Rackspace と CERN が推進する OpenStack ハイブリッド戦略とは?
Equinix Cloud Exchange により、洗練されたハイブリッド・クラウドが実現されていく

Dell/HP/Intel/Emerson が構築する Redfish は、IPMI 以来のスタンダードになり得るのか?

Posted in Data Center Trends, DCIM, Energy, Green IT by Agile Cat on September 26, 2014

Dell, HP, Intel and Emerson partner to develop new industry standard: Redfish
Brian Karlovsky | Sept. 9, 2014

Dell, HP, Intel and Emerson are set to develop a new industry standard to increase the productivity of system administrators through improved datacentre management, analysis and security.

Dell/Emerson/HP/Intel が、データセンターにおける管理/分析/セキュリティの改善を通じて、システム・アドミニストレータの生産性を向上させるべく、新しい業界スタンダードを作成しようとしている。

The new specification, Redfish, is still under development and will be one of the most comprehensive since the Intelligent Platform Management Interface (IPMI) was first launched in 1998, according to a statement.

この、新しい仕様である Redfish は、現時点において作成中である。 そして、このパートナーシップのステートメントによると、1998年に立ち上げられた Intelligent Platform Management Interface (IPMI) 以来の、最も包括的なものになるという。

_  space

_  space

Redfish uses a modern network interface style, allowing access to data using even simple, script-based programming methods. It will be designed to improve scalability and expand data access and analysis, help lower costs, and further enable feature-rich remote management while ensuring a secure solution that protects investment.

Redfish では、きわめてシンプルなスクリプトベースのプログラミング・メソッドにより、データへのアクセスを実現するために、最新のネットワーク·インターフェース·スタイルが用いられる。そのデザインは、スケーラビリティを向上させ、データに関するアクセスと分析を強化し、また、コストの削減を促進しながら、さらにリッチなリモート・マネージメントを実現するものであるが、投資を保護するセキュアなソリューションも約束される。

According to a company statement, the group collaborating on Redfish development is focused on ensuring the specification enhances interoperability across multiple server environments and significantly simplifies management, allowing administrators to speak one language and be more productive. It will also enable access to massive amounts of information and the ability to translate the data into actionable insights for system monitoring and management.

この団体のステートメントによると、Radfish 仕様の作成におけるグループとしての協調は、マルチ・サーバー環境をカバーするインターオペラビリティと、大幅に簡素化された管理形態にフォーカスするものであり、その結果として、アドミニストレータが用いる言語を1つに集約し、さらなる生産的を目指すことになる。そして、さらに、システムの監視と管理を対象とした、膨大なデータへのアクセスと、実用的な洞察への転換を、実現していくものとなる。

The partner companies are working with industry standards bodies and associations to accelerate the development process, in anticipation of the broad adoption of Redfish.

ここでパートナーとなる企業は、Redfish の広範囲におよぶ採用を予測し、また、その作成プロセスを加速するために、業界標準のための団体や協会と協調して作業を進めている。

The specification will be submitted to the Distributed Management Task Force for consideration by the recently created Scalable Platform Management Forum, which has been chartered to publish a standard in this space. Once the specification is approved, it will be publicly available.

Redfish の仕様は、先日に立ち上げられた Scalable Platform Management Forum により、Distributed Management Task Force へと提出され、この分野におけるスタンダードを発行するための、骨格として検討されていく。 そこで、仕様が承認された後に、一般でも利用が可能なものとなる。

Read more:Synnex Australia adds HP Enterprise to portfolio


現状でも、それぞれのデータセンターが工夫することで、それぞれのファシリティに適したマネージメント・システムが開発/運用されているはずです。 そして、RedFish が実現しようとしているのは、そのベースになる部分を標準化して、コストを下げようという試みなのだと思います。 ただ、いまの世の中のサーバー・ベンダーといっても、無印良品で市場を席巻している台湾の ODM たちを無視できません。 また、Facebook/Rackspace/Microsoft などによる Open Compute Project もあれば、Tencent/Alibaba/Baidu などによる Scorpio、そして、Google/IBM による OpenPower Foundation もあるという具合に、データセンターの効率化へ向けて活動している、オープン・ソースの存在も忘れてはなりません。たまたまですが、9/22 付で、Gartner が DCIM の Magic Quadrant を発表するほど、ここは、とてもホットな領域なのです。



Facebook と DCIM : オープンな議論を期待できるのか?
Facebook の DCIM : 独自のデータセンター管理システムを構築
Facebook が選んだ CA  の DCIM:どのように ハイパー・スケールを管理するのか?
Quanta と OCP : Server/Storage/Switch/Rack などがデビュー!

Google が オランダの海岸線に作る、120MW の Eemshaven データセンターとは?

Posted in Data Center Trends, Google by Agile Cat on September 24, 2014

Google to build gigantic 120-megawatt data center in the Netherlands
By David Meyer – Sep 23, 2014

_ Giga Om

Summary: The $772 million facility in Eemshaven will benefit from proximity to the landing point of major international submarine cables, as well as a good deal of renewable energy, reports say.

Summary: この、Eemshaven における $772 million のファシリティは、 主要な国際海底ケーブルの陸揚げポイントに近いというだけではなく、再生可能エネルギーの安価な供給という意味でも恩恵を被ると、いくつかのレポートが述べている。

Google is set to build an enormous data center in Eemshaven, in the Dutch province of Groningen. According to local reports, it will invest €600 million ($772 million) in the project over four years.

Google は、Groningen, Dutch 地方の Eemshaven に、巨大なデータセンターを構築するための準備を進めている。 その地方の報道によると、4年間のプロジェクトに €600 million ($772 million) が費やされるとされる。


The company already uses a TCN-owned, 20-megawatt data center in Eemshaven, which pitches itself as an ideal location for such things – it has access to many kinds of renewable energy, it’s a landing station for international internet cables and it has a mild climate that’s conducive to cheaper cooling.

すでに同社は、各種の再生可能エネルギーにアクセスできるという意味で、理想的なロケーションだと主張する Eemshaven で、TCN が所有する 20 MW のデータセンターを使用している。さらに言えば、Eemshaven には国際インターネット・ケーブルの陸揚げ局があり、また、穏やかな気候を活用した安価なクーリングも実現できる。

According to De Telegraaf, the new 120-megawatt data center will create 100 to 200 new jobs in Groningen. Construction will begin in 2016. Apple has also reportedly considered siting a new data center there, and Microsoft is also building a large new data center in Middenmeer, Noord-Holland.

De Telegraaf によると、この 2016年から構築が開始される、新しい 120 MW のデータセンターは、Groningen に 100人〜200人 の新規雇用をもたらす。

伝えられるところによると Apple も、この地に新しいデータセンターを構築すると推測される。さらに Microsoft も、Middenmeer, Noord-Holland に大規模なデータセンターを構築している。

Google already has three major European data centers of its own: in Hamina, Finland; St. Ghislain, Belgium; and Dublin, Ireland. The need to build out capacity in Europe comes not only from requirements for low latency from Google’s streaming media services, but also from unease — particularly among enterprise customers — over using services that are based in the U.S., due to the revelations of NSA whistleblower Edward Snowden.

すでに Google は、Hamina, Finland および、St. Ghislain, Belgium、そして Dublin, Ireland という、3つの主要データセンターをヨーロッパに所有している。ヨーロッパにおけるキャパシティの拡大は、Google のストリーミング・メディア・サービスで必要となる、低レイテンシの実現という要求に対応するものだ。ただし、Edward Snowden の内部告発が暴露した NSA による監視という、アメリカ・ベースのサービスにまつわる、エンタープライズ顧客の不安を取り除くという意味もあるのだろう。

Related research

How the mega data center is changing the hardware and data center markets March 2013
What mattered in mobile during the second quarter of 2014 July 2014
How the mobile payment market is shaping up in 2014 May 2014


地理的に見て、London のマーケットにも近く、また、Ghislain, Belgium にも近い北海に面した海辺という感じですね。 Hamina で実現している海水冷を、ここでも活用するのでしょうか?  また、再生可能エネルギーが潤沢と書かれていますが、オランダということは、風力発電が盛んなのでしょうかね? これから、完成まで、いろいろなレポートが登場するはずなので、とても楽しみです :)



Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期のデータセンター資産へ
Google データセンターを埋め尽くす、独自サーバーのコンセプトとは?
Google がフィンランドに作った海水冷 DC とは?
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?

Facebook のゴージャスな DC を、15枚の写真で紹介しよう!

Posted in Data Center Trends, Facebook, Open Compute by Agile Cat on September 19, 2014

Take A Tour Through Facebook’s Gorgeous Data Centers
Dave Smith − Sep. 5, 2014

_ Business Insider

Facebook announced the Open Compute Project in 2011 as a way to openly share the designs for its data centers — "to spark a collaborative dialogue … [and] collectively develop the most efficient computing infrastructure possible."

Facebook がデータセンターのデザインを広く共有する方法として、Open Compute Project についてアナウンスしたのは 2011年のことだった。それにより、コラボレーションが活性化し、最も効率的なコンピューティング·インフラを、協調しながら開発していくという流れが生まれた。

Alan Brandt

Starting in 2009, three Facebook employees dedicated themselves to custom-designing servers, server racks, power supplies, UPS units, and battery backup systems for the company’s first data center in Prineville, Oregon.

2009年に 3人の Facebook 従業員が、 Prineville, Oregon における同社としては初めてのデータセンターのための、サーバー/サーバー・ラック/電源/UPS/バッテリ·バックアップといったシステム対して、カスタムなデザインをコントリビュートした。

By 2011, Facebook’s data center in Prineville used 38% less energy to do the same work as the company’s other data centers at the time, while costing 24% less.

そして、2011年の Prineville データセンターは、38% という消費電力の低減と、24% のコスト削減という、すばらしい結果を残した。

Since then, Facebook has improved on its designs, and last summer, opened another data center in Lulea, Sweden.

その後の Facebook は、そのデザインを改善し、また、昨年の夏には、Lulea, Sweden にも新しいデータセンターをオープンしている。

With the help of Facebook and photographer Alan Brandt, we compiled some photos to show off what Facebook’s data centers look like from the inside and outside. And these are some really gorgeous-looking facilities.

Facebook と、カメラマンである Alan Brandt の助けを借りて、Facebook データセンターの内側と外側を示す、いくつかの写真をまとめてみた。それらは、とてもゴージャスなファシリティであると思える。

↓ クリックで Facebook アルバムへ ↓


ゴージャスと言っても、フカフカのソファーが置いてあるという意味ではなく、あの巨大なサービスを支えるサーバーやストレージに適したという話なのですが、そこで働くエンジニアにとっては、それこそがゴージャスなのだと思います。 Agile_Cat も、この Prineville DC には、一度 お邪魔したことがあるのですが、何から何まで、想像を絶する規模で構築されていたのが、とても強く印象に残っています。 たまたまですが、昨日の東京では、OCP Engineering Workshop 2014 が開催され、100人以上の人々が集まりました。 朝から夕方まで、ぎっちりと詰まった各セッションで、とても熱い議論が繰り返されていました。 これから、OCP Japan が考えていくことは、アジアという地域のビジネスに適した、データセンターのデザインを考えることに、集約されていくのだろうと思います。(この写真は、林雅之さんのブログからのものです)  



Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
Instagram が達成した史上最大のマイグレーション:200億枚のイメージを AWS から FB DC へ!
Facebook と Open Compute から、ついに Wedge という名の オープン・スイッチが発表された!
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?

Telehouse の New York IX が CoreSite と接続:北米最大のゲートウェイを実現

Posted in Data Center Trends, Open IX, Telecom by Agile Cat on September 11, 2014

Telehouse’s New York Internet Exchange Now Available Throughout CoreSite’s New York Market
September 04, 2014: 08:30 AM ET

Telehouse, the global leader for data centers, international Internet exchanges and managed IT services announces today that its New York Internet Exchange (NYIIX) is now available to CoreSite Realty Corporation (NYSE: COR), a leading provider of secure, reliable, high-performance data center solutions, via its "NY2" facility in Secaucus, NJ. Telehouse’s NYIIX, the largest public peering exchange in New York, is already available in CoreSite’s "NY1" facility in Manhattan. The added availability of NYIIX to NY2 provides access across CoreSite’s entire New York Market.

Telehouse は、データセンター/インターナショナル IX/マネージド IT サービスにおける、グローバル・リーダーとして認識される存在である。 そして今日(9/4)、同社の New York Internet Exchange (NYIIX) が、CoreSite Realty Corporation (NYSE: COR) と接続されたとアナウンスした。つまり、Secaucus, NJ にある CoreSite の “NY2” ファシリティを介した、安全性/信頼性/高性能を売りものにするデータセンター・ソリューションの、リーディング・プロバイダーとの新たなネットワークが確立したことになる。ただし、Telehouse の NYIIX は、すでに Manhattan にある CoreSite の “NY1” ファシリティと接続されており、New York における最大のパブリック・ピアリング・エクスチェンジとなっている。そして、NYIIX と NY2 の接続が追加されたことで、CoreSite の New York Market 全般に対するアクセスが提供されるようになる。

クリックで拡大 ⇒

Telehouse’s deployment at NY2 marks the company’s seventh NYIIX deployment in the New York City and Tri-State area. Members of NYIIX gain direct access to global mainstream ISPs and content providers, as well as niche regional ISPs and content providers with powerful network-to-network interconnections. The low latency of the exchange provides enhanced network performance and improved interconnectivity with other NYIIX members, offers route server options, and is IPV4, IPV6 and jumbo frame capable.

NY2 での Telehouse デプロイメントは、New York City と Tri-State エリアにおける、7回目のデプロイメントを記すことになる。NYIIX のメンバーたちは、グローバルにおける主流の ISP やコンテント・プロバイダーへの、ダイレクト・アクセスを達成する。それに加えて、絞りこまれた地域における ISP やコンテント・プロバイダーなどは、パワフルな Network-to-Network インターコネクションを手にする。このエクスチェンジが提供する低レイテンシにより、他の NYIIX メンバーとの間で、強化されたネットワーク性能と、進化した相互接続性が実現される。 そして、ルートサーバーのオプションや、IPV4/IPV6/Jumbo Frame なども提供される。

"The expansion of NYIIX into NY2 allows Telehouse to add another important peering location option for its members in one of the newest state of the art facilities in New Jersey," says Akio Sugeno, Vice President of Internet Engineering, Operations and Business Development at Telehouse. "NYIIX will continue to evolve and unite the fragmented New York peering market to further promote New York as the largest gateway to North America. Peering is an integral part of the Internet and we are fully committed to provide the best peering infrastructure to the Internet community.”

「 NY2 へ向けた NYIIX の拡大により、New Jersey における最先端のファシリティにおけるメンバーたちに、もう1つの重要なピアリング・ロケーションの選択肢を、Telehouse は追加できるようになった。NYIIX は継続して進化し、また、断片化された New York のピアリング・マーケットを統合することで、North America 最大のゲートウェイとしての New York を、さらに促進していく。ピアリングは、インターネットにとって不可欠なパートである。 そして、私たちは、インターネット・コミュニティに対して、最高のピアリング・インフラを提供するという試みを、フル・コミットしている」と、Telehouse の VP of Internet Engineering, Operations and Business Development である、Akio Sugeno は述べている。

CoreSite’s NY2 facility, which opened in December 2013, creates a scalable option for network, cloud and enterprises looking to expand at a more competitive total cost in the greater New York metro area, while optimizing performance with direct, low-latency access to regional points of interconnection. In addition, NY2 offers seamless operations with diverse network paths and latency below 0.3 ms to cloud providers deployed in CoreSite’s NY1 facility in Manhattan.

CoreSite の NY2 ファシリティは、2013年12月にオープンしている。そして、大規模な New York メトロ・エリア内において、最大の競争力をもたらすコストを前提に、その事業を拡張しようとするネットワーク/クラウド/エンタープライズのために、スケーラブルなオプションを構築し、また、相互接続の適切なポイントに低レイテンシでダイレクト接続することで、そのパフォーマンスを最適化してきた。さらに NY2 は、多様なネットワーク・パスを用いたシームレスなオペレーションを提供することで、Manhattan の CoreSite NY1 ファシリティにディプロイしているクラウド·プロバイダーたちに、0.3 ms 以下の低レイテンシをもたらしている。

"Since opening NY2 in Secaucus, New Jersey, we have continued to enhance the features and interconnectivity of that facility as well as in our Manhattan facility, NY1," comments Ben Green, Vice President of Sales, Network and Mobility at CoreSite. "Adding NYIIX peering services at NY2 gives our customers network dense connectivity with scalable data center solutions throughout the entire CoreSite New York market.”

「 Secaucus, New Jersey に NY2 をオープンしてからというもの、そのファシリティと、Manhattan NY1 のファシリティにおいて、機能と相互接続性を強化し続けている。NY2 に NYIIX ピアリング·サービスを追加することで、CoreSite New York マーケット全体をカバーするかたちで、私たちの顧客はスケーラブルなデータセンター・ソリューションを活用し、そのネットワーク接続における密度を高めていく 」と、CoreSite の VP of Sales, Network and Mobility である Ben Green はコメントしている。

For more information about CoreSite’s New York market, visit .


Telehouse というと、ヨーロッパで強いというイメージがあるのですが、New York にもたくさんのデータセンターを持ってるのですね。 そして、今回のパートナーである CoreSite は、Northern Virginia で London Internet Exchange(LINX)を受け入れており、Open IX を推進する勢力と捉えられています。 そう考えると、文中にあるピアリングやネットワーク・パスといったキーワードに、いったい何が隠されているのだろうかとか、楽しい妄想が次から次へと浮かんできてしまいます。 世界の最先端で戦う Telehouse。 頑張って欲しいですね!



KDDI が 東京と大阪に構築する Telehouse DC は、超弩級の電力密度を誇る!
NTT Com の、マレーシア 第4データセンターがオープンした
ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Gartner が インドの Tata Communications を高く評価:決め手は途上国のサポート
Rackspace を CenturyLink が買収するというウワサを、Bloomberg がレポート
Cisco レポート 2014年版:モバイル・トラフィックの世界 No.1 は、日本の 1.87GB/月だ!

%d bloggers like this: