Agile Cat — in the cloud

Google は言う:クラウドの料金も ムーアの法則に従うべきだ!

Posted in .Chronicle, .Selected, Amazon, Businesses, Data Center Trends, Energy, Google by Agile Cat on October 2, 2014

Google Says Cloud Prices Will Follow Moore’s Law: Are We All Renters Now?
http://wp.me/pwo1E-7UY
Wednesday, May 14, 2014
http://highscalability.com/blog/2014/5/14/google-says-cloud-prices-will-follow-moores-law-are-we-all-r.html

_ highscalability

After Google cut prices on their Google Cloud Platform Amazon quickly followed with their own price cuts. Even more interesting is what the future holds for pricing. The near future looks great. After that? We’ll see.

Google が、その Google Cloud Platform の価格を引き下げ、すぐに Amazon も追随した。さらに興味深いのは、将来における価格の設定である。 おそらく、近い将来に、素晴らしい状況になるだろうが、なにが、そうさせるのだろう?

Adrian Cockcroft highlights that Google thinks prices should follow Moore’s law, which means we should expect prices to halve every 18-24 months.

Google が考えているのは、その価格はムーアの法則に従うべきだというものであり、18ヶ月〜24カ月で半額になることを期待できるはずだと、Adrian Cockcroft は強調している。

That’s good news. Greater cost certainty means you can make much more aggressive build out plans. With the savings you can hire more people, handle more customers, and add those media rich features you thought you couldn’t afford. Design is directly related to costs.

それは良いニュースだ。 大幅にコストが引き下げられるなら、あらゆる計画を、より積極的に立案していける。クラウド・コストの削減により、より多くの人材を雇用し、より多くの顧客に対応し、余裕がなければ対処できないことを、それらのメディアを用いて実現していける。 デザインというものは、コストの影響をダイレクトに受けるのだ。

Without Google competing with Amazon there’s little doubt the price reduction curve would be much less favourable.

Amazon と競合する Google という存在がなければ、低価格化の曲線は、はるかに魅力のないものであったいう疑念が、少なからず残される。

As a late cloud entrant Google is now in a customer acquisition phase, so they are willing to pay for customers, which means lower prices are an acceptable cost of doing business. Profit and high margins are not the objective. Getting market share is what is important.

遅れてクラウド(IaaS の意味)に参入してきた Google にとって、いまは顧客を獲得するフェーズにある。 したがって、顧客がビジネスを展開しやすいような、低コストを提示するという、利益を度外視した戦略をとってきている。つまり、大きな利益やマージンは二の次なのである。 そして、マーケットでシェアを取ることが最優先されている。

Amazon on the other hand has been reaping the higher margins earned from recurring customers. So Google’s entrance into the early product life cycle phase is making Amazon eat into their margins and is forcing down prices over all.

その一方で、Amazon は、継続して利用してくれる顧客から、より高い利益率を享受してきた。つまり、確立しつつあるプロダクト・ライフサイクルのフェーズに、Google が乱入してきたことで、Amazon のマージンは圧縮され、すべてにおいて価格の引き下げを強いられている。

But there’s a floor to how low prices can go. Alen Peacock, co-founder of Space Monkey has an interesting graphic telling the story. This is Amazon’s historical pricing for 1TB of storage in S3, graphed as a multiple of the historical pricing for 1TB of local hard disk:

しかし、低価格化が行き着く先としての底値があるのだ。Space Monky の co-founder である Alen Peacock が、そのストーリーを説明する、興味深いチャートを提供している。それは、1TB のハードディスクをローカルで持つ場合と、1TB のストレージを Amazon の S3 に持つ場合で、何倍の対価が発生するのかを、時間軸の中に示すものとなっている。

_  space

Alen explains it this way:

Cloud prices do decrease over time, and have dropped significantly over the timespan shown in the graph, but this graph shows cloud storage prices as a multiple of hard disk prices. In other words, hard disk prices are dropping much faster than datacenter prices. This is because, right, datacenters have costs other than hard disks (power, cooling, bandwidth, building infrastructure, diesel backup generators, battery backup systems, fire suppression, staffing, etc). Most of those costs do not follow Moore’s Law — in fact energy costs are on a long trend upwards. So over time, the gap shown by the graph should continue to widen.

クラウドの価格は、時間の経過とともに低下し、また、前述のチャート(上記のものとは別のもの)における時間軸では、かなりのペースで下落している。 しかし、このチャートは、クラウド・ストレージの価格と比べて、何倍かの速度でハードディスクの価格が下落している様子を示している。つまり、ハードディスクの価格は、データセンターの価格よりも、はるかに速く下落しているのだ。なぜなら、データセンターのコストには、ハードディスク以外のもの(電源/冷却/帯域幅/建造物/非常用ジーゼル発電機/バッテリ·バックアップ·システム/消火設備/人材など)が含まれるからである。これらのコストの大半は、ムーアの法則に従わないものであり、実際のところ、電力コストの長期的な傾向は上昇曲線にある。 したがって、上記のチャートで示されるギャップは、時間をかけながら広がり続けるはずである。

The economic advantages of building your own (but housed in datacenters) is there, but it isn’t huge. There is also some long term strategic advantage to building your own, e.g., GDrive dropped their price dramatically at will because Google owns their datacenters, but Dropbox couldn’t do that without convincing Amazon to drop the price they pay for S3.

あなた自身でストレージを構築すれば(データセンターにホストされる)、経済的な利点があるが、それほど大きなものではない。それならば、長期的な戦略として、データセンターを自分で構築するという考え方もある。Google は、自身でデータセンターを所有しているため、GDrive の価格を意図的に引き下げることができる。 しかし、Dropboxが、同じように価格を引き下げようとするなら、S3 のコストを引き下げるよう、Amazon を説得しなければならない。

Costs other than hardware began dominating in datacenters several years ago, Moore’s Law-like effects are dampened. Energy/cooling and cooling costs do not follow Moore’s Law, and those costs make up a huge component of the overall picture in datacenters. This is only going to get worse, barring some radical new energy production technology arriving on the scene.

この数年、データセンターのコストは、ハードウェア以外のものに支配され始め、ムーアの法則の効果が希薄になっている。電力を冷却のコストが、ムーアの法則に従うことはなく、また、それらのコストは、データセンター全体という巨大なコンポーネントに影響している。つまり、何らかの革新的なエネルギー生産テクノロジーが登場しなければ、さらに事態は悪化していくだろう。

What we’re [Space Monkey] interested in, long term, is dropping the floor out from underneath all of these, and I think that only happens if you get out of the datacenter entirely.

私たち Space Monkey が、長期的な視点として興味を持っているのは、それらすべての背景から引き離して、いまの下限値を引き下げられるかどうか、という点である。 そして、あなたがデータセンターの中に、まったく踏み込まないのなら、そうなる可能性もあると思えるのだ。

As the size of cloud market is still growing there will still be a fight for market share. When growth slows and the market is divided between major players a collusionary pricing phase will take over. Cloud customers are sticky customers. It’s hard to move off a cloud. The need for higher margins to justify the cash flow drain during the customer acquisition phase will reverse the favorable trends we are seeing now.

クラウド・マーケットの規模が拡大するにつれて、マーケット・シェアの戦いも続いていく。しかし、その成長が減速し、主要なプレーヤーがマーケットを住み分けると、結託した価格政策の時代へと引き継がれていく。クラウドの顧客は、そこに寄り添う顧客である。 したがって、クラウドから逃げ出すのは難しい。将来における高いマージンへの期待が、いまの顧客獲得のフェーズにおける、キャッシュ·フローの流出を正当化しているのかもしれない。そうだとすると、いまの好ましい流れが、いずれは逆転する状況を、私たちは目にすることになる。

Until then it seems the economics indicate we are in a rent, not a buy world.

逆に言えば、経済的な観点において、そうなるまでの間は、買うのではなく借りるという方式が、好ましいのだろう。

Related Articles

  • IaaS Series: Cloud Storage Pricing – How Low Can They Go? – "For now it seems we can assume we’ve not seen the last of the big price reductions."
  • The Cloud Is Not Green
  • Brad Stone: “Bill Miller, the chief investment officer at Legg Mason Capital Management and a major Amazon shareholder, asked Bezos at the time about the profitability prospects for AWS. Bezos predicted they would be good over the long term but said that he didn’t want to repeat “Steve Jobs’s mistake” of pricing the iPhone in a way that was so fantastically profitable that the smartphone market became a magnet for competition.”

ーーーーー

久々の High Scalability からの翻訳ですが、さすがは Todd Hoff さん、視点が鋭いです。 サーバーにしろ、ストレージにしろ、IT 機器はムーアの法則に則って、これから先もコストを引き下げていくのでしょうが、クラウドにはデータセンターならではのコスト、というものが含まれます。そして、インフラのレイヤを下っていって、電気料金のところまでいくと、そこは固定されていて動かしようがない、というのが普通の状況です。でも、Google が、そう言うからには、再生可能エネルギーの生産まで含めて、将来をデザインしているのかもしれません。 とても興味深い話ですね!

ーーーーー

<関連>

送電網の UPS として機能する次世代バッテリー・テクノロジー
eBay のデータセンターは、燃料電池から 6MW を絞り出す
Facebook の空母のような DC: 効率/温度/湿度 を Web モニタリング!
Google がフィンランドに作った海水冷 DC とは?
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!

ヨーロッパを 仮想 DC でカバーする、謎の Interoute クラウドが香港に進出!

Posted in .Selected, Asia, Data Center Trends, Hybrid by Agile Cat on October 1, 2014

Interoute opens in Hong Kong data center
New facility expands reach at a time when more companies are looking east
http://wp.me/pwo1E-7UP
7 April 2014 by Eira Hayward
http://www.datacenterdynamics.com/focus/archive/2014/04/interoute-opens-hong-kong-data-center

_ DC Dynamics

Interoute is taking its cloud computing solution to the Far East with the opening of a Virtual Data Center (VDC) in Hong Kong. It means Interoute customers can now choose from seven VDC zones – Amsterdam, Berlin, London, Paris, Milan or Hong Kong – to gain fast access to their applications and data.

Interoute は Hong Kong に Virtual Data Center(VDC)をオープンすることで、そのクラウド·コンピューティング·ソリューションを Far East に持ち込もうとしている。それにより、Interoute の顧客たちは、アプリケーションとデータへの高速でのアクセスを達成するために、Amsterdam/Berlin/London/Paris/Milan/Hong Kong などで構成される 7つの VDC ゾーンを選択できるようになる。

Interoute plays to its network advantage, offering one SLA for both networking and cloud computing and not charging for data transfer. Interoute general manager for cloud computing Lee Myall said the expansion has come primarily as a result of European businesses pushing east.

Interoute の特徴は、ネットワークのアドバンテージにあり、ネットワーキングとクラウド・コンピューティングの双方を網羅する単一の SLA を提供するが、データ転送について課金することはない。Interoute の General Manager for Cloud Computing である Lee Myall は、今回の拡張について、欧州企業をアジアにプッシュするという、主要な目標を達成するための結果だと説明している。

クリックで拡大 ⇒ 

He said there would be more VDCs to come, both in the Far East and elsewhere, as Interoute continues to expand. “This expansion is about pushing compute power to the boundaries of our network, but I can foresee that computing will start dragging the network to a few places,” Myall said. “Hong Kong is already filling up – we have customers with big migration plans who are going live at the moment.”

Myall が言うには、Interoute が拡大し続けるにつれて、Far East などの地域で、これまで以上の VDC が立ち上がっていくようだ。「 この拡張は、私たちのネットワークの境界線へ向けて、コンピューティング・パワーをプッシュするものだが、そのコンピューティングが私たちの領域を、押し広げ始めると予見している。すでに Hong Kong は満杯であり、これから移行しようと計画している、たくさんの顧客を持っている」と、彼は続けている。

The VDC is built into the core of Interoute’s network and, according to the company, this means it can deliver a fully networked cloud which is faster and has greater resilience and security than other cloud computing services.

この VDC は、Interoute ネットワークのコアに組み込まれる。そして、同社によると、他のクラウド・コンピューティング・サービスと比較して高速であり、高い弾力性と安全性を保持する、フル・ネットワーク化されたクラウドを提供できることになる。

Interoute’s move comes at a time when spending on cloud services in Asia Pacific is growing at a CAGR of 30%, according to IDC, and the Asian market is providing robust growth for both local and Western multinationals.

この、Interoute の動きは、Asia Pacific のクラウド・サービスに対する支出が、30% の CAGR で成長していると、IDC が述べるタイミングで生じている。また、Asia のマーケットは、ローカルの企業と、西欧の多国籍企業に対して、堅調な成長をもたらしている。

Last week, for example, IBM announced that luxury children’s fashion retailer Club 21 will be using its cloud, e-commerce and analytics software to expand its online presence across Asia-Pacific, increasing its reach from four to 15 countries across the region.

例を挙げると、先週に IBM が発表したのは、高級子供服のリテーラーである Club 21 が、Asia-Pacific 全体にまたがるオンライン・プレゼンスを高めるために、そのクラウド/コマース/分析のソフトウェアを使用するというものだ。それにより、この地域においてリーチしていく対象が、4カ国から 15カ国に増えることになる。

The importance of Asian markets for multinational businesses was reinforced by recent pan-Asian large research project from Telstra Global which found that 83% of multinationals in Asia expect to either meet or exceed their financial and strategic objectives in the next three years.

多国籍企業にとって、Asia のマーケットの重要性は、Telstra Global が実施した Pan-Asia 大規模調査により裏付けられている。その調査では、Asia における多国籍企業の 83% が、今後の3年間で、それぞれの財務および戦略の目標を達成したいと望んでいることが分かった。

Telstra Global’s Connecting Countries report found that the ICT industry in particular is a stand-out success in Asia, with 71% of ICT companies having been very successful in Asia in the past three years, compared to 61% of companies across other sectors.

Telstra Global の Connecting Countries レポートは、とりわけ ICT 産業が、Asia のマーケットで成功していると指摘している。この地域における、これまでの 3年間のデータによると、ICT 企業の 71% が成功を収めているが、他の地域での成功率は 61% となる。

“Over the next three years both financial services and insurance companies and those in the ICT sector are most bullish about exceeding their objectives in Asia, with 55 and 51% respectively, compared to 42% across the board,” said Telstra Global managing director Martijn Blanken.

「 これからの 3年間において、金融サービスおよび保険会社と、その ICT 部門が、Asia で成功していくだろう。 それぞの目標値は、55% と 51% であるが、世界の平均は 42% である」と、Telstra Global の Managing Director である Martijn Blanken は述べている。

ーーーーー

ヨーロッパのクラウドは、いったい、どうなっているのかと、以前から不思議に思っていました。 そして、数ヶ月ほど前に、この Interoute の存在を知ったのですが、同社の Web ページから拾ってきたマップを見ても、「なるほど、ヨーロッパ的だ」という雰囲気が漂ってきます。 アメリカ型の巨大データセンターを中心とする構造ではなく、それぞれの国や都市に分散するデータセンターを、メッシュ状にネットワークしていくという考え方のようです。 何年か前に、スマートグリッドのことを調べていて、国ごとに経済エリアを区切ることが、ヨーロッパでは必要だからという理由に、納得したことを思い出しました。 送電網もファイバー網も、国境ををまたいで物理的に結ばれているわけですが、経済を考えた場合に、どこかに論理的な仕切を入れる必要があるのでしょう。 ひょっとすると、1つの事業体に見える Interoute も、各国に分散する企業の集合体なのかもしれません。 この、謎だらけのヨーロッパ・クラウドを、これからも追いかけてみたいと思っています。

ーーーーー

<関連>

Hybrid 対 Public : ユーザーの必要性と、ベンダーの目論見は、どこで交差するのか?
ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Hybrid の調査: 企業データを分析すると、20-60-20 の 仕分けシナリオが見えてくる
Rackspace と CERN が推進する OpenStack ハイブリッド戦略とは?
Equinix Cloud Exchange により、洗練されたハイブリッド・クラウドが実現されていく

Dell/HP/Intel/Emerson が構築する Redfish は、IPMI 以来のスタンダードになり得るのか?

Posted in Data Center Trends, DCIM, Energy, Green IT by Agile Cat on September 26, 2014

Dell, HP, Intel and Emerson partner to develop new industry standard: Redfish
http://wp.me/pwo1E-7U5
Brian Karlovsky | Sept. 9, 2014
http://www.arnnet.com.au/article/554452/dell-hp-intel-emerson-partner-develop-new-industry-standard-redfish/

Dell, HP, Intel and Emerson are set to develop a new industry standard to increase the productivity of system administrators through improved datacentre management, analysis and security.

Dell/Emerson/HP/Intel が、データセンターにおける管理/分析/セキュリティの改善を通じて、システム・アドミニストレータの生産性を向上させるべく、新しい業界スタンダードを作成しようとしている。

The new specification, Redfish, is still under development and will be one of the most comprehensive since the Intelligent Platform Management Interface (IPMI) was first launched in 1998, according to a statement.

この、新しい仕様である Redfish は、現時点において作成中である。 そして、このパートナーシップのステートメントによると、1998年に立ち上げられた Intelligent Platform Management Interface (IPMI) 以来の、最も包括的なものになるという。

_  space

_  space

Redfish uses a modern network interface style, allowing access to data using even simple, script-based programming methods. It will be designed to improve scalability and expand data access and analysis, help lower costs, and further enable feature-rich remote management while ensuring a secure solution that protects investment.

Redfish では、きわめてシンプルなスクリプトベースのプログラミング・メソッドにより、データへのアクセスを実現するために、最新のネットワーク·インターフェース·スタイルが用いられる。そのデザインは、スケーラビリティを向上させ、データに関するアクセスと分析を強化し、また、コストの削減を促進しながら、さらにリッチなリモート・マネージメントを実現するものであるが、投資を保護するセキュアなソリューションも約束される。

According to a company statement, the group collaborating on Redfish development is focused on ensuring the specification enhances interoperability across multiple server environments and significantly simplifies management, allowing administrators to speak one language and be more productive. It will also enable access to massive amounts of information and the ability to translate the data into actionable insights for system monitoring and management.

この団体のステートメントによると、Radfish 仕様の作成におけるグループとしての協調は、マルチ・サーバー環境をカバーするインターオペラビリティと、大幅に簡素化された管理形態にフォーカスするものであり、その結果として、アドミニストレータが用いる言語を1つに集約し、さらなる生産的を目指すことになる。そして、さらに、システムの監視と管理を対象とした、膨大なデータへのアクセスと、実用的な洞察への転換を、実現していくものとなる。

The partner companies are working with industry standards bodies and associations to accelerate the development process, in anticipation of the broad adoption of Redfish.

ここでパートナーとなる企業は、Redfish の広範囲におよぶ採用を予測し、また、その作成プロセスを加速するために、業界標準のための団体や協会と協調して作業を進めている。

The specification will be submitted to the Distributed Management Task Force for consideration by the recently created Scalable Platform Management Forum, which has been chartered to publish a standard in this space. Once the specification is approved, it will be publicly available.

Redfish の仕様は、先日に立ち上げられた Scalable Platform Management Forum により、Distributed Management Task Force へと提出され、この分野におけるスタンダードを発行するための、骨格として検討されていく。 そこで、仕様が承認された後に、一般でも利用が可能なものとなる。

Read more:Synnex Australia adds HP Enterprise to portfolio

ーーーーー

現状でも、それぞれのデータセンターが工夫することで、それぞれのファシリティに適したマネージメント・システムが開発/運用されているはずです。 そして、RedFish が実現しようとしているのは、そのベースになる部分を標準化して、コストを下げようという試みなのだと思います。 ただ、いまの世の中のサーバー・ベンダーといっても、無印良品で市場を席巻している台湾の ODM たちを無視できません。 また、Facebook/Rackspace/Microsoft などによる Open Compute Project もあれば、Tencent/Alibaba/Baidu などによる Scorpio、そして、Google/IBM による OpenPower Foundation もあるという具合に、データセンターの効率化へ向けて活動している、オープン・ソースの存在も忘れてはなりません。たまたまですが、9/22 付で、Gartner が DCIM の Magic Quadrant を発表するほど、ここは、とてもホットな領域なのです。

ーーーーー

<関連>

Facebook と DCIM : オープンな議論を期待できるのか?
Facebook の DCIM : 独自のデータセンター管理システムを構築
Facebook が選んだ CA  の DCIM:どのように ハイパー・スケールを管理するのか?
Quanta と OCP : Server/Storage/Switch/Rack などがデビュー!

Google が オランダの海岸線に作る、120MW の Eemshaven データセンターとは?

Posted in Data Center Trends, Google by Agile Cat on September 24, 2014

Google to build gigantic 120-megawatt data center in the Netherlands
http://wp.me/pwo1E-7TH
By David Meyer – Sep 23, 2014
https://gigaom.com/2014/09/23/google-to-build-gigantic-120-megawatt-data-center-in-the-netherlands/

_ Giga Om

Summary: The $772 million facility in Eemshaven will benefit from proximity to the landing point of major international submarine cables, as well as a good deal of renewable energy, reports say.

Summary: この、Eemshaven における $772 million のファシリティは、 主要な国際海底ケーブルの陸揚げポイントに近いというだけではなく、再生可能エネルギーの安価な供給という意味でも恩恵を被ると、いくつかのレポートが述べている。

ーーーーー
Google is set to build an enormous data center in Eemshaven, in the Dutch province of Groningen. According to local reports, it will invest €600 million ($772 million) in the project over four years.

Google は、Groningen, Dutch 地方の Eemshaven に、巨大なデータセンターを構築するための準備を進めている。 その地方の報道によると、4年間のプロジェクトに €600 million ($772 million) が費やされるとされる。

photo
Eemshaven.net

The company already uses a TCN-owned, 20-megawatt data center in Eemshaven, which pitches itself as an ideal location for such things – it has access to many kinds of renewable energy, it’s a landing station for international internet cables and it has a mild climate that’s conducive to cheaper cooling.

すでに同社は、各種の再生可能エネルギーにアクセスできるという意味で、理想的なロケーションだと主張する Eemshaven で、TCN が所有する 20 MW のデータセンターを使用している。さらに言えば、Eemshaven には国際インターネット・ケーブルの陸揚げ局があり、また、穏やかな気候を活用した安価なクーリングも実現できる。

According to De Telegraaf, the new 120-megawatt data center will create 100 to 200 new jobs in Groningen. Construction will begin in 2016. Apple has also reportedly considered siting a new data center there, and Microsoft is also building a large new data center in Middenmeer, Noord-Holland.

De Telegraaf によると、この 2016年から構築が開始される、新しい 120 MW のデータセンターは、Groningen に 100人〜200人 の新規雇用をもたらす。

伝えられるところによると Apple も、この地に新しいデータセンターを構築すると推測される。さらに Microsoft も、Middenmeer, Noord-Holland に大規模なデータセンターを構築している。

Google already has three major European data centers of its own: in Hamina, Finland; St. Ghislain, Belgium; and Dublin, Ireland. The need to build out capacity in Europe comes not only from requirements for low latency from Google’s streaming media services, but also from unease — particularly among enterprise customers — over using services that are based in the U.S., due to the revelations of NSA whistleblower Edward Snowden.

すでに Google は、Hamina, Finland および、St. Ghislain, Belgium、そして Dublin, Ireland という、3つの主要データセンターをヨーロッパに所有している。ヨーロッパにおけるキャパシティの拡大は、Google のストリーミング・メディア・サービスで必要となる、低レイテンシの実現という要求に対応するものだ。ただし、Edward Snowden の内部告発が暴露した NSA による監視という、アメリカ・ベースのサービスにまつわる、エンタープライズ顧客の不安を取り除くという意味もあるのだろう。

Related research

How the mega data center is changing the hardware and data center markets March 2013
What mattered in mobile during the second quarter of 2014 July 2014
How the mobile payment market is shaping up in 2014 May 2014

ーーーーー

地理的に見て、London のマーケットにも近く、また、Ghislain, Belgium にも近い北海に面した海辺という感じですね。 Hamina で実現している海水冷を、ここでも活用するのでしょうか?  また、再生可能エネルギーが潤沢と書かれていますが、オランダということは、風力発電が盛んなのでしょうかね? これから、完成まで、いろいろなレポートが登場するはずなので、とても楽しみです :)

ーーーーー

<関連>

Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期のデータセンター資産へ
Google データセンターを埋め尽くす、独自サーバーのコンセプトとは?
Google がフィンランドに作った海水冷 DC とは?
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?

Facebook のゴージャスな DC を、15枚の写真で紹介しよう!

Posted in Data Center Trends, Facebook, Open Compute by Agile Cat on September 19, 2014

Take A Tour Through Facebook’s Gorgeous Data Centers
http://wp.me/pwo1E-7ST
Dave Smith − Sep. 5, 2014
http://www.businessinsider.com/15-photos-of-facebook-data-centers-2014-9

_ Business Insider

Facebook announced the Open Compute Project in 2011 as a way to openly share the designs for its data centers — "to spark a collaborative dialogue … [and] collectively develop the most efficient computing infrastructure possible."

Facebook がデータセンターのデザインを広く共有する方法として、Open Compute Project についてアナウンスしたのは 2011年のことだった。それにより、コラボレーションが活性化し、最も効率的なコンピューティング·インフラを、協調しながら開発していくという流れが生まれた。

Alan Brandt

Starting in 2009, three Facebook employees dedicated themselves to custom-designing servers, server racks, power supplies, UPS units, and battery backup systems for the company’s first data center in Prineville, Oregon.

2009年に 3人の Facebook 従業員が、 Prineville, Oregon における同社としては初めてのデータセンターのための、サーバー/サーバー・ラック/電源/UPS/バッテリ·バックアップといったシステム対して、カスタムなデザインをコントリビュートした。

By 2011, Facebook’s data center in Prineville used 38% less energy to do the same work as the company’s other data centers at the time, while costing 24% less.

そして、2011年の Prineville データセンターは、38% という消費電力の低減と、24% のコスト削減という、すばらしい結果を残した。

Since then, Facebook has improved on its designs, and last summer, opened another data center in Lulea, Sweden.

その後の Facebook は、そのデザインを改善し、また、昨年の夏には、Lulea, Sweden にも新しいデータセンターをオープンしている。

With the help of Facebook and photographer Alan Brandt, we compiled some photos to show off what Facebook’s data centers look like from the inside and outside. And these are some really gorgeous-looking facilities.

Facebook と、カメラマンである Alan Brandt の助けを借りて、Facebook データセンターの内側と外側を示す、いくつかの写真をまとめてみた。それらは、とてもゴージャスなファシリティであると思える。

↓ クリックで Facebook アルバムへ ↓

ーーーーー

ゴージャスと言っても、フカフカのソファーが置いてあるという意味ではなく、あの巨大なサービスを支えるサーバーやストレージに適したという話なのですが、そこで働くエンジニアにとっては、それこそがゴージャスなのだと思います。 Agile_Cat も、この Prineville DC には、一度 お邪魔したことがあるのですが、何から何まで、想像を絶する規模で構築されていたのが、とても強く印象に残っています。 たまたまですが、昨日の東京では、OCP Engineering Workshop 2014 が開催され、100人以上の人々が集まりました。 朝から夕方まで、ぎっちりと詰まった各セッションで、とても熱い議論が繰り返されていました。 これから、OCP Japan が考えていくことは、アジアという地域のビジネスに適した、データセンターのデザインを考えることに、集約されていくのだろうと思います。(この写真は、林雅之さんのブログからのものです)  

ーーーーー

<関連>

Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
Instagram が達成した史上最大のマイグレーション:200億枚のイメージを AWS から FB DC へ!
Facebook と Open Compute から、ついに Wedge という名の オープン・スイッチが発表された!
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?

Telehouse の New York IX が CoreSite と接続:北米最大のゲートウェイを実現

Posted in Data Center Trends, Open IX, Telecom by Agile Cat on September 11, 2014

Telehouse’s New York Internet Exchange Now Available Throughout CoreSite’s New York Market
http://wp.me/pwo1E-7Qv
September 04, 2014: 08:30 AM ET
http://money.cnn.com/news/newsfeeds/articles/marketwire/1142079.htm

Telehouse, the global leader for data centers, international Internet exchanges and managed IT services announces today that its New York Internet Exchange (NYIIX) is now available to CoreSite Realty Corporation (NYSE: COR), a leading provider of secure, reliable, high-performance data center solutions, via its "NY2" facility in Secaucus, NJ. Telehouse’s NYIIX, the largest public peering exchange in New York, is already available in CoreSite’s "NY1" facility in Manhattan. The added availability of NYIIX to NY2 provides access across CoreSite’s entire New York Market.

Telehouse は、データセンター/インターナショナル IX/マネージド IT サービスにおける、グローバル・リーダーとして認識される存在である。 そして今日(9/4)、同社の New York Internet Exchange (NYIIX) が、CoreSite Realty Corporation (NYSE: COR) と接続されたとアナウンスした。つまり、Secaucus, NJ にある CoreSite の “NY2” ファシリティを介した、安全性/信頼性/高性能を売りものにするデータセンター・ソリューションの、リーディング・プロバイダーとの新たなネットワークが確立したことになる。ただし、Telehouse の NYIIX は、すでに Manhattan にある CoreSite の “NY1” ファシリティと接続されており、New York における最大のパブリック・ピアリング・エクスチェンジとなっている。そして、NYIIX と NY2 の接続が追加されたことで、CoreSite の New York Market 全般に対するアクセスが提供されるようになる。

クリックで拡大 ⇒

Telehouse’s deployment at NY2 marks the company’s seventh NYIIX deployment in the New York City and Tri-State area. Members of NYIIX gain direct access to global mainstream ISPs and content providers, as well as niche regional ISPs and content providers with powerful network-to-network interconnections. The low latency of the exchange provides enhanced network performance and improved interconnectivity with other NYIIX members, offers route server options, and is IPV4, IPV6 and jumbo frame capable.

NY2 での Telehouse デプロイメントは、New York City と Tri-State エリアにおける、7回目のデプロイメントを記すことになる。NYIIX のメンバーたちは、グローバルにおける主流の ISP やコンテント・プロバイダーへの、ダイレクト・アクセスを達成する。それに加えて、絞りこまれた地域における ISP やコンテント・プロバイダーなどは、パワフルな Network-to-Network インターコネクションを手にする。このエクスチェンジが提供する低レイテンシにより、他の NYIIX メンバーとの間で、強化されたネットワーク性能と、進化した相互接続性が実現される。 そして、ルートサーバーのオプションや、IPV4/IPV6/Jumbo Frame なども提供される。

"The expansion of NYIIX into NY2 allows Telehouse to add another important peering location option for its members in one of the newest state of the art facilities in New Jersey," says Akio Sugeno, Vice President of Internet Engineering, Operations and Business Development at Telehouse. "NYIIX will continue to evolve and unite the fragmented New York peering market to further promote New York as the largest gateway to North America. Peering is an integral part of the Internet and we are fully committed to provide the best peering infrastructure to the Internet community.”

「 NY2 へ向けた NYIIX の拡大により、New Jersey における最先端のファシリティにおけるメンバーたちに、もう1つの重要なピアリング・ロケーションの選択肢を、Telehouse は追加できるようになった。NYIIX は継続して進化し、また、断片化された New York のピアリング・マーケットを統合することで、North America 最大のゲートウェイとしての New York を、さらに促進していく。ピアリングは、インターネットにとって不可欠なパートである。 そして、私たちは、インターネット・コミュニティに対して、最高のピアリング・インフラを提供するという試みを、フル・コミットしている」と、Telehouse の VP of Internet Engineering, Operations and Business Development である、Akio Sugeno は述べている。

CoreSite’s NY2 facility, which opened in December 2013, creates a scalable option for network, cloud and enterprises looking to expand at a more competitive total cost in the greater New York metro area, while optimizing performance with direct, low-latency access to regional points of interconnection. In addition, NY2 offers seamless operations with diverse network paths and latency below 0.3 ms to cloud providers deployed in CoreSite’s NY1 facility in Manhattan.

CoreSite の NY2 ファシリティは、2013年12月にオープンしている。そして、大規模な New York メトロ・エリア内において、最大の競争力をもたらすコストを前提に、その事業を拡張しようとするネットワーク/クラウド/エンタープライズのために、スケーラブルなオプションを構築し、また、相互接続の適切なポイントに低レイテンシでダイレクト接続することで、そのパフォーマンスを最適化してきた。さらに NY2 は、多様なネットワーク・パスを用いたシームレスなオペレーションを提供することで、Manhattan の CoreSite NY1 ファシリティにディプロイしているクラウド·プロバイダーたちに、0.3 ms 以下の低レイテンシをもたらしている。

"Since opening NY2 in Secaucus, New Jersey, we have continued to enhance the features and interconnectivity of that facility as well as in our Manhattan facility, NY1," comments Ben Green, Vice President of Sales, Network and Mobility at CoreSite. "Adding NYIIX peering services at NY2 gives our customers network dense connectivity with scalable data center solutions throughout the entire CoreSite New York market.”

「 Secaucus, New Jersey に NY2 をオープンしてからというもの、そのファシリティと、Manhattan NY1 のファシリティにおいて、機能と相互接続性を強化し続けている。NY2 に NYIIX ピアリング·サービスを追加することで、CoreSite New York マーケット全体をカバーするかたちで、私たちの顧客はスケーラブルなデータセンター・ソリューションを活用し、そのネットワーク接続における密度を高めていく 」と、CoreSite の VP of Sales, Network and Mobility である Ben Green はコメントしている。

For more information about CoreSite’s New York market, visit http://www.coresite.com/locations/new-york .

ーーーーー

Telehouse というと、ヨーロッパで強いというイメージがあるのですが、New York にもたくさんのデータセンターを持ってるのですね。 そして、今回のパートナーである CoreSite は、Northern Virginia で London Internet Exchange(LINX)を受け入れており、Open IX を推進する勢力と捉えられています。 そう考えると、文中にあるピアリングやネットワーク・パスといったキーワードに、いったい何が隠されているのだろうかとか、楽しい妄想が次から次へと浮かんできてしまいます。 世界の最先端で戦う Telehouse。 頑張って欲しいですね!

ーーーーー

<関連>

KDDI が 東京と大阪に構築する Telehouse DC は、超弩級の電力密度を誇る!
NTT Com の、マレーシア 第4データセンターがオープンした
ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Gartner が インドの Tata Communications を高く評価:決め手は途上国のサポート
Rackspace を CenturyLink が買収するというウワサを、Bloomberg がレポート
Cisco レポート 2014年版:モバイル・トラフィックの世界 No.1 は、日本の 1.87GB/月だ!

Akamai と OpenDNS が提携:もっと もっと Web を速くしたい!

Posted in Data Center Trends, Network by Agile Cat on August 29, 2014

Akamai signs deal with OpenDNS to make the web faster
http://wp.me/pwo1E-7Nn

By
Stacey Higginbotham – June 3, 2014
http://gigaom.com/2014/06/03/akamai-signs-deal-with-opendns-to-make-the-web-faster/

_ Giga Om

Summary: Akamai’s job is to speed up the web, but as more companies use alternative DNS services, that can be difficult. So it’s signed a deal with OpenDNS to get content to people faster.

Akamai の仕事は Web の高速化であるが、数多くの企業が代替の DNS サービスを使用するようになると、それも困難になり得る。したがって、より高速に、人々にコンテンツを提供するために、同社は OpenDNS と契約を締結することになった。

ーーーーー

Content delivery network Akamai is still attempting to speed up the web and it has teamed up with OpenDNS to add optimized DNS routing to its arsenal of services. For customers using OpenDNS, content hosted on Akamai’s servers will arrive faster — as much as four times fast in some cases. This is similar to the deal OpenDNS signed in 2011 with Google.

CDN を提供する Akamai は、さらに Web を高速化しようと試み、また、そのサービスの根幹である最適化された DNS ルーティングを追加するために、OpenDNS と提携することになった。それにより、OpenDNS を利用する顧客にとって、Akamai にホストされるコンテンツは、より高速に配信されることになり、また、いくつかのケースでは 4倍もの高速化が達成されるという。それは、2011年に Google が OpenDNS と提携したときに似ている。

photo
Mr. Vi/Thinkstock

Akamai signed this deal in January and now is announcing that it has implemented it in all of its locations. The partnership is based on a standard that attaches location data to a DNS request so a user’s request for content goes to server nearby. Typically, a CDN or content provider routes a user based on the address of the DNS server, as opposed to the user’s location, but they aren’t always in the same region, especially as more businesses choose alternative DNS providers such as OpenDNS, Dyn, Google’s service and others.

Akamai は、この契約を 1月に締結しており、いまでは、すべてのロケーションにおいて実装が完了していると発表した。そのパートナーシップは、DNS リクエストにロケーション・データを付加するという、スタンダードに基づいたものであるため、コンテンツに対するユーザー・リクエストは、最寄りのサーバーへと転送される。一般的に、CDN や コンテント・プロバイダーは、DNS サーバーのアドレスに基づき、ユーザーのロケーションとは反対の方向へと、ユーザーをルーティングしていくのだが、それらが、常に同じリージョンにいるとは限らない。 とりわけ、数多くの企業が、OpenDNS/Dyn/Google Service などの、代替の DNSプ ロバイダーを選択すると、その傾向が強くなる。

So now a user in Austin, Texas who types in the URL for a YouTube video will share part of his IP address as part of the DNS request. That way, the domain name system server can route the request to a Google data center in Dallas, as opposed to one in Ireland. This can substantially speed up access to content, which is what people hire Akamai for in the first place.

したがって、YouTube ビデオの URL を、Austin, Texas から入力するユーザーは、DNS リクエストの一部として自身の IP アドレスを共有することになる。この方式を用いれば、対象となる DNS サーバーは、そのリクエストを Dallas のGoogle データセンターへとルーティングできるようになり、Ireland に飛ばしてしまうようなことは、起こり得なくなる。そして、コンテントへのアクセスが、きわめて高速化されるが、人々が最初のロケーションとして Akamai を選ぶ理由も、そこにあるのだ。

Related research

How to deliver the next-generation web experience – January 2013
Infrastructure Q2: Big data and PaaS gain more momentum – July 2011
What to consider when architecting your organization for the cloud – May 2014

ーーーーー

いまから 2年ほど前に、「世界の DNS インフラも、地味ながら 頑張ってる!」という抄訳をポストしていますが、そこには、「5年前には、123 ヶ所の DNS ルート・サーバー・サイト(DNS のバックエンド)が、インターネット上に展開されていた。 それが、いまでは、2倍以上に膨れ上がり、300ヶ所を超すサイトが存在している」と記されていました。 そして、今日の記事を見る限り、DNS は更に進化しているようであり、また、Akamai がきわめて重要な役割を果たしていることも分かりますね。 もっと、もっと、Web を速くしてくださ~い。 

ーーーーー

<関連>

Akamai の 61,000 台のサーバーは、70カ国で 1,000 Networks をサポートする
この 3年間で、インターネット上での攻撃が 2000% も増えている – Akamai の調査
Akamai がダウンすると、インターネットも道連れに?
Rackspace と Akamai が、CDN サービスで提携
Akamai が 3.45 TBits / 秒のピークを記録

KDDI が 東京と大阪に構築する Telehouse DC は、超弩級の電力密度を誇る!

Posted in Asia, Data Center Trends, Telecom by Agile Cat on August 28, 2014

KDDI to Build New Telehouse Data Centers in Tokyo and Osaka
http://wp.me/pwo1E-7N3

By Marketwired  – August 27, 2014
http://www.sys-con.com/node/3162327

__ Market Wired

TELEHOUSE Invests in Expanding a Further 20MW of High Power Density Colocation Space in Japan

NEW YORK, NY — (Marketwired) — 08/27/14 — KDDI, the global telecommunications provider, announces today that it will invest $270 million (28 billion yen) investment ina the building of two new Telehouse data centers, "TELEHOUSE OSAKA 2," and "TELEHOUSE TOKYO Tama 3," scheduled to open in August 2015 and February 2016 respectively. These additional facilities will take the total amount of global TELEHOUSE data center space to approximately 4.0 million square feet, provided by 46 sites across 13 countries/territories and 24 major cities.

NEW YORK, NY — (Marketwired) — 08/27/14 — グローバル・テレコム・プロバイダである KDDI からの今日の発表によると、同社は $270 million (28 billion yen) を投資し、TELEHOUSE OSAKA2 および TELEHOUSE TOKYO Tama 3という、2つのデータセンターを構築し、それぞれを 2015年8月と 2016年2月にオープンすることになる。 これらのファシリティが追加されることで、13カ国/24主要都市の 46サイトに展開される、TELEHOUSE データセンターの総床面積は、400万平方フィート(約37万平米)に拡大される。

Both Osaka and Tokyo facilities will offer high-density colocation services enabling the hosting of heavy load IT infrastructure. The data centers will meet the growing demand for housing private enterprise clouds, along with public cloud service providers, online and media content companies. The facilities are designed to Tier 3+ data center standards in redundancy and uptime, and will be insusceptible to earthquakes by a long-period absorption structure, reflecting the high quality Global TELEHOUSE specifications. In addition, KDDI can provide a combined solution by providing direct access to the KDDI global network along with the data center.

Osaka と Tokyo のファシリティは、いずれも高負荷 IT インフラのホスティングを可能にする、高密度コロケーション・サービスを提供する。これらのデータセンターは、プライベート・エンタープライズ・クラウドにおける需要の高まりに対応するものとなるが、パブリック・クラウド・サービス・プロバイダーや、オンライン/メディア・コンテンツ事業にも提供される。 また、冗長性とアップタイムに関しては、高品質な Global TELEHOUSE スペックを反映した、Tier 3+ のデータセンター・スタンダードで設計され、また、地震に関しては長周期での吸収構造を用いることで、そのに影響を受けにくいデザインとなっている。それに加えて、KDDI Global Network へのダイレクト・アクセスを、これらのデータセンターに提供することで、KDDI は複合的なソリューションを実現していくとされる。

クリックでスペック・シート ⇒

Telehouse Osaka 2, located in the center of Osaka city, will offer 700 racks of tenancy space with up to 30kVA (designed) per rack. The technical and operations room will be situated above second floor avoiding the risk of potential flooding. Osaka 2 can be used as a disaster recovery and back-up site for the Tokyo data centers.

Telehouse Osaka 2 は、大阪市の中心部に位置し、ラックあたり 30kVA(designed)に対応する 700台のラックにより、テナント・スペースの構成する。テクニカルおよびオペレーションのための施設は、2階以上に配置され、水害による危険性を回避するものとなる。また、この Osaka 2 は、東京のデータセンター群のための、DR(disaster recovery)および Back-Up のサイトとしても用いられる。

Telehouse Tokyo Tama 3 will be located on the existing Tama data center campus, approximately 18 miles from the Tokyo city center in a highly guarded surrounding. The five story building will offer 1,300 racks of tenancy space with up to 42kVA (designed) power supply to racks, the highest(*1) in Japan and 5 times(*2) industry average, with a designed PUE 1.31 making it one of the most energy efficient data centers in Japan.

Telehouse Tokyo Tama 3 は、東京の中心部から 18マイルほど離れた、きわめてセキュアな環境の中で運用されている、Tama Data Center Campus 内に配置される。そして、5階建てのビルディングに収納される、ラックあたり 42kVA(designed)に対応する 1300台のラックにより、テナント・スペースの構成する。この電力密度は、日本で最高(*1)のものであり、また、業界平均の 5倍(*2)に達するものとなる。そして、PUE 1.31 を実現する、日本で最もエネルギー効率の良いデータセンターの1つとなる。

The Telehouse data center expansion reflects the growing demand for data center space in Japan’s metros, and the ability of KDDI to accommodate leading multinationals expanding their portfolios in Japan. By securing its domestic market share in Japan, KDDI continues to be the leader in premium data center facilities.

この、Telehouse Data Center の拡大は、日本における都市型データセンター・スペースに対する、需要の高まりを反映したものとなる。 そして、日本でのポートフォリオを拡大する、主だった多国籍企業を収容する、KDDI のキャパシティを拡大していくことになる。 日本国内でのマーケット・シェアを確かなものにすることで、KDDI は高品質データセンター・ファシリティのリーダーであり続けようとしている。

To learn more about TELEHOUSE America and KDDI visit http://www.telehouse.com and http://global.kddi.com/.

(*1) As of Aug 26. Research from KDDI based on public information.

(*2) Compared with TELEHOUSE data centers in Japan.

ーーーーー

Over 30kVA というのは凄まじいですね :) そろそろ、15kVA の時代かなぁ・・・ などと考えていた Agile_Cat などは、その予想を完全に覆されてしまい、かなりビックリしています。 もちろん、すべてのラックに、それだけの電力を供給できるという話ではなく、特定のラックに対してという話のはずですが、それにしてもスゴイことです。 排熱は、どうするのでしょうね? 今度、チャンスがあったら教えてもらいたいですねぇ。

ーーーーー

<関連>

ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期のデータセンター資産へ
シンガポール は データセンター 天国 : Equinix は語る
NTT は DC 事業者 RagingWire を買収し、国際戦略の要とするのか?
CloudStack がテレコムに好まれる理由 : 世界から集まった8名の証人たち

%d bloggers like this: