Agile Cat — in the cloud

Dell/HP/Intel/Emerson が構築する Redfish は、IPMI 以来のスタンダードになり得るのか?

Posted in Data Center Trends, DCIM, Energy, Green IT by Agile Cat on September 26, 2014

Dell, HP, Intel and Emerson partner to develop new industry standard: Redfish
http://wp.me/pwo1E-7U5
Brian Karlovsky | Sept. 9, 2014
http://www.arnnet.com.au/article/554452/dell-hp-intel-emerson-partner-develop-new-industry-standard-redfish/

Dell, HP, Intel and Emerson are set to develop a new industry standard to increase the productivity of system administrators through improved datacentre management, analysis and security.

Dell/Emerson/HP/Intel が、データセンターにおける管理/分析/セキュリティの改善を通じて、システム・アドミニストレータの生産性を向上させるべく、新しい業界スタンダードを作成しようとしている。

The new specification, Redfish, is still under development and will be one of the most comprehensive since the Intelligent Platform Management Interface (IPMI) was first launched in 1998, according to a statement.

この、新しい仕様である Redfish は、現時点において作成中である。 そして、このパートナーシップのステートメントによると、1998年に立ち上げられた Intelligent Platform Management Interface (IPMI) 以来の、最も包括的なものになるという。

_  space

_  space

Redfish uses a modern network interface style, allowing access to data using even simple, script-based programming methods. It will be designed to improve scalability and expand data access and analysis, help lower costs, and further enable feature-rich remote management while ensuring a secure solution that protects investment.

Redfish では、きわめてシンプルなスクリプトベースのプログラミング・メソッドにより、データへのアクセスを実現するために、最新のネットワーク·インターフェース·スタイルが用いられる。そのデザインは、スケーラビリティを向上させ、データに関するアクセスと分析を強化し、また、コストの削減を促進しながら、さらにリッチなリモート・マネージメントを実現するものであるが、投資を保護するセキュアなソリューションも約束される。

According to a company statement, the group collaborating on Redfish development is focused on ensuring the specification enhances interoperability across multiple server environments and significantly simplifies management, allowing administrators to speak one language and be more productive. It will also enable access to massive amounts of information and the ability to translate the data into actionable insights for system monitoring and management.

この団体のステートメントによると、Radfish 仕様の作成におけるグループとしての協調は、マルチ・サーバー環境をカバーするインターオペラビリティと、大幅に簡素化された管理形態にフォーカスするものであり、その結果として、アドミニストレータが用いる言語を1つに集約し、さらなる生産的を目指すことになる。そして、さらに、システムの監視と管理を対象とした、膨大なデータへのアクセスと、実用的な洞察への転換を、実現していくものとなる。

The partner companies are working with industry standards bodies and associations to accelerate the development process, in anticipation of the broad adoption of Redfish.

ここでパートナーとなる企業は、Redfish の広範囲におよぶ採用を予測し、また、その作成プロセスを加速するために、業界標準のための団体や協会と協調して作業を進めている。

The specification will be submitted to the Distributed Management Task Force for consideration by the recently created Scalable Platform Management Forum, which has been chartered to publish a standard in this space. Once the specification is approved, it will be publicly available.

Redfish の仕様は、先日に立ち上げられた Scalable Platform Management Forum により、Distributed Management Task Force へと提出され、この分野におけるスタンダードを発行するための、骨格として検討されていく。 そこで、仕様が承認された後に、一般でも利用が可能なものとなる。

Read more:Synnex Australia adds HP Enterprise to portfolio

ーーーーー

現状でも、それぞれのデータセンターが工夫することで、それぞれのファシリティに適したマネージメント・システムが開発/運用されているはずです。 そして、RedFish が実現しようとしているのは、そのベースになる部分を標準化して、コストを下げようという試みなのだと思います。 ただ、いまの世の中のサーバー・ベンダーといっても、無印良品で市場を席巻している台湾の ODM たちを無視できません。 また、Facebook/Rackspace/Microsoft などによる Open Compute Project もあれば、Tencent/Alibaba/Baidu などによる Scorpio、そして、Google/IBM による OpenPower Foundation もあるという具合に、データセンターの効率化へ向けて活動している、オープン・ソースの存在も忘れてはなりません。たまたまですが、9/22 付で、Gartner が DCIM の Magic Quadrant を発表するほど、ここは、とてもホットな領域なのです。

ーーーーー

<関連>

Facebook と DCIM : オープンな議論を期待できるのか?
Facebook の DCIM : 独自のデータセンター管理システムを構築
Facebook が選んだ CA  の DCIM:どのように ハイパー・スケールを管理するのか?
Quanta と OCP : Server/Storage/Switch/Rack などがデビュー!

Google が オランダの海岸線に作る、120MW の Eemshaven データセンターとは?

Posted in Data Center Trends, Google by Agile Cat on September 24, 2014

Google to build gigantic 120-megawatt data center in the Netherlands
http://wp.me/pwo1E-7TH
By David Meyer – Sep 23, 2014
https://gigaom.com/2014/09/23/google-to-build-gigantic-120-megawatt-data-center-in-the-netherlands/

_ Giga Om

Summary: The $772 million facility in Eemshaven will benefit from proximity to the landing point of major international submarine cables, as well as a good deal of renewable energy, reports say.

Summary: この、Eemshaven における $772 million のファシリティは、 主要な国際海底ケーブルの陸揚げポイントに近いというだけではなく、再生可能エネルギーの安価な供給という意味でも恩恵を被ると、いくつかのレポートが述べている。

ーーーーー
Google is set to build an enormous data center in Eemshaven, in the Dutch province of Groningen. According to local reports, it will invest €600 million ($772 million) in the project over four years.

Google は、Groningen, Dutch 地方の Eemshaven に、巨大なデータセンターを構築するための準備を進めている。 その地方の報道によると、4年間のプロジェクトに €600 million ($772 million) が費やされるとされる。

photo
Eemshaven.net

The company already uses a TCN-owned, 20-megawatt data center in Eemshaven, which pitches itself as an ideal location for such things – it has access to many kinds of renewable energy, it’s a landing station for international internet cables and it has a mild climate that’s conducive to cheaper cooling.

すでに同社は、各種の再生可能エネルギーにアクセスできるという意味で、理想的なロケーションだと主張する Eemshaven で、TCN が所有する 20 MW のデータセンターを使用している。さらに言えば、Eemshaven には国際インターネット・ケーブルの陸揚げ局があり、また、穏やかな気候を活用した安価なクーリングも実現できる。

According to De Telegraaf, the new 120-megawatt data center will create 100 to 200 new jobs in Groningen. Construction will begin in 2016. Apple has also reportedly considered siting a new data center there, and Microsoft is also building a large new data center in Middenmeer, Noord-Holland.

De Telegraaf によると、この 2016年から構築が開始される、新しい 120 MW のデータセンターは、Groningen に 100人〜200人 の新規雇用をもたらす。

伝えられるところによると Apple も、この地に新しいデータセンターを構築すると推測される。さらに Microsoft も、Middenmeer, Noord-Holland に大規模なデータセンターを構築している。

Google already has three major European data centers of its own: in Hamina, Finland; St. Ghislain, Belgium; and Dublin, Ireland. The need to build out capacity in Europe comes not only from requirements for low latency from Google’s streaming media services, but also from unease — particularly among enterprise customers — over using services that are based in the U.S., due to the revelations of NSA whistleblower Edward Snowden.

すでに Google は、Hamina, Finland および、St. Ghislain, Belgium、そして Dublin, Ireland という、3つの主要データセンターをヨーロッパに所有している。ヨーロッパにおけるキャパシティの拡大は、Google のストリーミング・メディア・サービスで必要となる、低レイテンシの実現という要求に対応するものだ。ただし、Edward Snowden の内部告発が暴露した NSA による監視という、アメリカ・ベースのサービスにまつわる、エンタープライズ顧客の不安を取り除くという意味もあるのだろう。

Related research

How the mega data center is changing the hardware and data center markets March 2013
What mattered in mobile during the second quarter of 2014 July 2014
How the mobile payment market is shaping up in 2014 May 2014

ーーーーー

地理的に見て、London のマーケットにも近く、また、Ghislain, Belgium にも近い北海に面した海辺という感じですね。 Hamina で実現している海水冷を、ここでも活用するのでしょうか?  また、再生可能エネルギーが潤沢と書かれていますが、オランダということは、風力発電が盛んなのでしょうかね? これから、完成まで、いろいろなレポートが登場するはずなので、とても楽しみです :)

ーーーーー

<関連>

Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期のデータセンター資産へ
Google データセンターを埋め尽くす、独自サーバーのコンセプトとは?
Google がフィンランドに作った海水冷 DC とは?
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?

Facebook のゴージャスな DC を、15枚の写真で紹介しよう!

Posted in Data Center Trends, Facebook, Open Compute by Agile Cat on September 19, 2014

Take A Tour Through Facebook’s Gorgeous Data Centers
http://wp.me/pwo1E-7ST
Dave Smith − Sep. 5, 2014
http://www.businessinsider.com/15-photos-of-facebook-data-centers-2014-9

_ Business Insider

Facebook announced the Open Compute Project in 2011 as a way to openly share the designs for its data centers — "to spark a collaborative dialogue … [and] collectively develop the most efficient computing infrastructure possible."

Facebook がデータセンターのデザインを広く共有する方法として、Open Compute Project についてアナウンスしたのは 2011年のことだった。それにより、コラボレーションが活性化し、最も効率的なコンピューティング·インフラを、協調しながら開発していくという流れが生まれた。

Alan Brandt

Starting in 2009, three Facebook employees dedicated themselves to custom-designing servers, server racks, power supplies, UPS units, and battery backup systems for the company’s first data center in Prineville, Oregon.

2009年に 3人の Facebook 従業員が、 Prineville, Oregon における同社としては初めてのデータセンターのための、サーバー/サーバー・ラック/電源/UPS/バッテリ·バックアップといったシステム対して、カスタムなデザインをコントリビュートした。

By 2011, Facebook’s data center in Prineville used 38% less energy to do the same work as the company’s other data centers at the time, while costing 24% less.

そして、2011年の Prineville データセンターは、38% という消費電力の低減と、24% のコスト削減という、すばらしい結果を残した。

Since then, Facebook has improved on its designs, and last summer, opened another data center in Lulea, Sweden.

その後の Facebook は、そのデザインを改善し、また、昨年の夏には、Lulea, Sweden にも新しいデータセンターをオープンしている。

With the help of Facebook and photographer Alan Brandt, we compiled some photos to show off what Facebook’s data centers look like from the inside and outside. And these are some really gorgeous-looking facilities.

Facebook と、カメラマンである Alan Brandt の助けを借りて、Facebook データセンターの内側と外側を示す、いくつかの写真をまとめてみた。それらは、とてもゴージャスなファシリティであると思える。

↓ クリックで Facebook アルバムへ ↓

ーーーーー

ゴージャスと言っても、フカフカのソファーが置いてあるという意味ではなく、あの巨大なサービスを支えるサーバーやストレージに適したという話なのですが、そこで働くエンジニアにとっては、それこそがゴージャスなのだと思います。 Agile_Cat も、この Prineville DC には、一度 お邪魔したことがあるのですが、何から何まで、想像を絶する規模で構築されていたのが、とても強く印象に残っています。 たまたまですが、昨日の東京では、OCP Engineering Workshop 2014 が開催され、100人以上の人々が集まりました。 朝から夕方まで、ぎっちりと詰まった各セッションで、とても熱い議論が繰り返されていました。 これから、OCP Japan が考えていくことは、アジアという地域のビジネスに適した、データセンターのデザインを考えることに、集約されていくのだろうと思います。(この写真は、林雅之さんのブログからのものです)  

ーーーーー

<関連>

Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
Instagram が達成した史上最大のマイグレーション:200億枚のイメージを AWS から FB DC へ!
Facebook と Open Compute から、ついに Wedge という名の オープン・スイッチが発表された!
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?

Telehouse の New York IX が CoreSite と接続:北米最大のゲートウェイを実現

Posted in Data Center Trends, Open IX, Telecom by Agile Cat on September 11, 2014

Telehouse’s New York Internet Exchange Now Available Throughout CoreSite’s New York Market
http://wp.me/pwo1E-7Qv
September 04, 2014: 08:30 AM ET
http://money.cnn.com/news/newsfeeds/articles/marketwire/1142079.htm

Telehouse, the global leader for data centers, international Internet exchanges and managed IT services announces today that its New York Internet Exchange (NYIIX) is now available to CoreSite Realty Corporation (NYSE: COR), a leading provider of secure, reliable, high-performance data center solutions, via its "NY2" facility in Secaucus, NJ. Telehouse’s NYIIX, the largest public peering exchange in New York, is already available in CoreSite’s "NY1" facility in Manhattan. The added availability of NYIIX to NY2 provides access across CoreSite’s entire New York Market.

Telehouse は、データセンター/インターナショナル IX/マネージド IT サービスにおける、グローバル・リーダーとして認識される存在である。 そして今日(9/4)、同社の New York Internet Exchange (NYIIX) が、CoreSite Realty Corporation (NYSE: COR) と接続されたとアナウンスした。つまり、Secaucus, NJ にある CoreSite の “NY2” ファシリティを介した、安全性/信頼性/高性能を売りものにするデータセンター・ソリューションの、リーディング・プロバイダーとの新たなネットワークが確立したことになる。ただし、Telehouse の NYIIX は、すでに Manhattan にある CoreSite の “NY1” ファシリティと接続されており、New York における最大のパブリック・ピアリング・エクスチェンジとなっている。そして、NYIIX と NY2 の接続が追加されたことで、CoreSite の New York Market 全般に対するアクセスが提供されるようになる。

クリックで拡大 ⇒

Telehouse’s deployment at NY2 marks the company’s seventh NYIIX deployment in the New York City and Tri-State area. Members of NYIIX gain direct access to global mainstream ISPs and content providers, as well as niche regional ISPs and content providers with powerful network-to-network interconnections. The low latency of the exchange provides enhanced network performance and improved interconnectivity with other NYIIX members, offers route server options, and is IPV4, IPV6 and jumbo frame capable.

NY2 での Telehouse デプロイメントは、New York City と Tri-State エリアにおける、7回目のデプロイメントを記すことになる。NYIIX のメンバーたちは、グローバルにおける主流の ISP やコンテント・プロバイダーへの、ダイレクト・アクセスを達成する。それに加えて、絞りこまれた地域における ISP やコンテント・プロバイダーなどは、パワフルな Network-to-Network インターコネクションを手にする。このエクスチェンジが提供する低レイテンシにより、他の NYIIX メンバーとの間で、強化されたネットワーク性能と、進化した相互接続性が実現される。 そして、ルートサーバーのオプションや、IPV4/IPV6/Jumbo Frame なども提供される。

"The expansion of NYIIX into NY2 allows Telehouse to add another important peering location option for its members in one of the newest state of the art facilities in New Jersey," says Akio Sugeno, Vice President of Internet Engineering, Operations and Business Development at Telehouse. "NYIIX will continue to evolve and unite the fragmented New York peering market to further promote New York as the largest gateway to North America. Peering is an integral part of the Internet and we are fully committed to provide the best peering infrastructure to the Internet community.”

「 NY2 へ向けた NYIIX の拡大により、New Jersey における最先端のファシリティにおけるメンバーたちに、もう1つの重要なピアリング・ロケーションの選択肢を、Telehouse は追加できるようになった。NYIIX は継続して進化し、また、断片化された New York のピアリング・マーケットを統合することで、North America 最大のゲートウェイとしての New York を、さらに促進していく。ピアリングは、インターネットにとって不可欠なパートである。 そして、私たちは、インターネット・コミュニティに対して、最高のピアリング・インフラを提供するという試みを、フル・コミットしている」と、Telehouse の VP of Internet Engineering, Operations and Business Development である、Akio Sugeno は述べている。

CoreSite’s NY2 facility, which opened in December 2013, creates a scalable option for network, cloud and enterprises looking to expand at a more competitive total cost in the greater New York metro area, while optimizing performance with direct, low-latency access to regional points of interconnection. In addition, NY2 offers seamless operations with diverse network paths and latency below 0.3 ms to cloud providers deployed in CoreSite’s NY1 facility in Manhattan.

CoreSite の NY2 ファシリティは、2013年12月にオープンしている。そして、大規模な New York メトロ・エリア内において、最大の競争力をもたらすコストを前提に、その事業を拡張しようとするネットワーク/クラウド/エンタープライズのために、スケーラブルなオプションを構築し、また、相互接続の適切なポイントに低レイテンシでダイレクト接続することで、そのパフォーマンスを最適化してきた。さらに NY2 は、多様なネットワーク・パスを用いたシームレスなオペレーションを提供することで、Manhattan の CoreSite NY1 ファシリティにディプロイしているクラウド·プロバイダーたちに、0.3 ms 以下の低レイテンシをもたらしている。

"Since opening NY2 in Secaucus, New Jersey, we have continued to enhance the features and interconnectivity of that facility as well as in our Manhattan facility, NY1," comments Ben Green, Vice President of Sales, Network and Mobility at CoreSite. "Adding NYIIX peering services at NY2 gives our customers network dense connectivity with scalable data center solutions throughout the entire CoreSite New York market.”

「 Secaucus, New Jersey に NY2 をオープンしてからというもの、そのファシリティと、Manhattan NY1 のファシリティにおいて、機能と相互接続性を強化し続けている。NY2 に NYIIX ピアリング·サービスを追加することで、CoreSite New York マーケット全体をカバーするかたちで、私たちの顧客はスケーラブルなデータセンター・ソリューションを活用し、そのネットワーク接続における密度を高めていく 」と、CoreSite の VP of Sales, Network and Mobility である Ben Green はコメントしている。

For more information about CoreSite’s New York market, visit http://www.coresite.com/locations/new-york .

ーーーーー

Telehouse というと、ヨーロッパで強いというイメージがあるのですが、New York にもたくさんのデータセンターを持ってるのですね。 そして、今回のパートナーである CoreSite は、Northern Virginia で London Internet Exchange(LINX)を受け入れており、Open IX を推進する勢力と捉えられています。 そう考えると、文中にあるピアリングやネットワーク・パスといったキーワードに、いったい何が隠されているのだろうかとか、楽しい妄想が次から次へと浮かんできてしまいます。 世界の最先端で戦う Telehouse。 頑張って欲しいですね!

ーーーーー

<関連>

KDDI が 東京と大阪に構築する Telehouse DC は、超弩級の電力密度を誇る!
NTT Com の、マレーシア 第4データセンターがオープンした
ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Gartner が インドの Tata Communications を高く評価:決め手は途上国のサポート
Rackspace を CenturyLink が買収するというウワサを、Bloomberg がレポート
Cisco レポート 2014年版:モバイル・トラフィックの世界 No.1 は、日本の 1.87GB/月だ!

Akamai と OpenDNS が提携:もっと もっと Web を速くしたい!

Posted in Data Center Trends, Network by Agile Cat on August 29, 2014

Akamai signs deal with OpenDNS to make the web faster
http://wp.me/pwo1E-7Nn

By
Stacey Higginbotham – June 3, 2014
http://gigaom.com/2014/06/03/akamai-signs-deal-with-opendns-to-make-the-web-faster/

_ Giga Om

Summary: Akamai’s job is to speed up the web, but as more companies use alternative DNS services, that can be difficult. So it’s signed a deal with OpenDNS to get content to people faster.

Akamai の仕事は Web の高速化であるが、数多くの企業が代替の DNS サービスを使用するようになると、それも困難になり得る。したがって、より高速に、人々にコンテンツを提供するために、同社は OpenDNS と契約を締結することになった。

ーーーーー

Content delivery network Akamai is still attempting to speed up the web and it has teamed up with OpenDNS to add optimized DNS routing to its arsenal of services. For customers using OpenDNS, content hosted on Akamai’s servers will arrive faster — as much as four times fast in some cases. This is similar to the deal OpenDNS signed in 2011 with Google.

CDN を提供する Akamai は、さらに Web を高速化しようと試み、また、そのサービスの根幹である最適化された DNS ルーティングを追加するために、OpenDNS と提携することになった。それにより、OpenDNS を利用する顧客にとって、Akamai にホストされるコンテンツは、より高速に配信されることになり、また、いくつかのケースでは 4倍もの高速化が達成されるという。それは、2011年に Google が OpenDNS と提携したときに似ている。

photo
Mr. Vi/Thinkstock

Akamai signed this deal in January and now is announcing that it has implemented it in all of its locations. The partnership is based on a standard that attaches location data to a DNS request so a user’s request for content goes to server nearby. Typically, a CDN or content provider routes a user based on the address of the DNS server, as opposed to the user’s location, but they aren’t always in the same region, especially as more businesses choose alternative DNS providers such as OpenDNS, Dyn, Google’s service and others.

Akamai は、この契約を 1月に締結しており、いまでは、すべてのロケーションにおいて実装が完了していると発表した。そのパートナーシップは、DNS リクエストにロケーション・データを付加するという、スタンダードに基づいたものであるため、コンテンツに対するユーザー・リクエストは、最寄りのサーバーへと転送される。一般的に、CDN や コンテント・プロバイダーは、DNS サーバーのアドレスに基づき、ユーザーのロケーションとは反対の方向へと、ユーザーをルーティングしていくのだが、それらが、常に同じリージョンにいるとは限らない。 とりわけ、数多くの企業が、OpenDNS/Dyn/Google Service などの、代替の DNSプ ロバイダーを選択すると、その傾向が強くなる。

So now a user in Austin, Texas who types in the URL for a YouTube video will share part of his IP address as part of the DNS request. That way, the domain name system server can route the request to a Google data center in Dallas, as opposed to one in Ireland. This can substantially speed up access to content, which is what people hire Akamai for in the first place.

したがって、YouTube ビデオの URL を、Austin, Texas から入力するユーザーは、DNS リクエストの一部として自身の IP アドレスを共有することになる。この方式を用いれば、対象となる DNS サーバーは、そのリクエストを Dallas のGoogle データセンターへとルーティングできるようになり、Ireland に飛ばしてしまうようなことは、起こり得なくなる。そして、コンテントへのアクセスが、きわめて高速化されるが、人々が最初のロケーションとして Akamai を選ぶ理由も、そこにあるのだ。

Related research

How to deliver the next-generation web experience – January 2013
Infrastructure Q2: Big data and PaaS gain more momentum – July 2011
What to consider when architecting your organization for the cloud – May 2014

ーーーーー

いまから 2年ほど前に、「世界の DNS インフラも、地味ながら 頑張ってる!」という抄訳をポストしていますが、そこには、「5年前には、123 ヶ所の DNS ルート・サーバー・サイト(DNS のバックエンド)が、インターネット上に展開されていた。 それが、いまでは、2倍以上に膨れ上がり、300ヶ所を超すサイトが存在している」と記されていました。 そして、今日の記事を見る限り、DNS は更に進化しているようであり、また、Akamai がきわめて重要な役割を果たしていることも分かりますね。 もっと、もっと、Web を速くしてくださ~い。 

ーーーーー

<関連>

Akamai の 61,000 台のサーバーは、70カ国で 1,000 Networks をサポートする
この 3年間で、インターネット上での攻撃が 2000% も増えている – Akamai の調査
Akamai がダウンすると、インターネットも道連れに?
Rackspace と Akamai が、CDN サービスで提携
Akamai が 3.45 TBits / 秒のピークを記録

KDDI が 東京と大阪に構築する Telehouse DC は、超弩級の電力密度を誇る!

Posted in Asia, Data Center Trends, Telecom by Agile Cat on August 28, 2014

KDDI to Build New Telehouse Data Centers in Tokyo and Osaka
http://wp.me/pwo1E-7N3

By Marketwired  – August 27, 2014
http://www.sys-con.com/node/3162327

__ Market Wired

TELEHOUSE Invests in Expanding a Further 20MW of High Power Density Colocation Space in Japan

NEW YORK, NY — (Marketwired) — 08/27/14 — KDDI, the global telecommunications provider, announces today that it will invest $270 million (28 billion yen) investment ina the building of two new Telehouse data centers, "TELEHOUSE OSAKA 2," and "TELEHOUSE TOKYO Tama 3," scheduled to open in August 2015 and February 2016 respectively. These additional facilities will take the total amount of global TELEHOUSE data center space to approximately 4.0 million square feet, provided by 46 sites across 13 countries/territories and 24 major cities.

NEW YORK, NY — (Marketwired) — 08/27/14 — グローバル・テレコム・プロバイダである KDDI からの今日の発表によると、同社は $270 million (28 billion yen) を投資し、TELEHOUSE OSAKA2 および TELEHOUSE TOKYO Tama 3という、2つのデータセンターを構築し、それぞれを 2015年8月と 2016年2月にオープンすることになる。 これらのファシリティが追加されることで、13カ国/24主要都市の 46サイトに展開される、TELEHOUSE データセンターの総床面積は、400万平方フィート(約37万平米)に拡大される。

Both Osaka and Tokyo facilities will offer high-density colocation services enabling the hosting of heavy load IT infrastructure. The data centers will meet the growing demand for housing private enterprise clouds, along with public cloud service providers, online and media content companies. The facilities are designed to Tier 3+ data center standards in redundancy and uptime, and will be insusceptible to earthquakes by a long-period absorption structure, reflecting the high quality Global TELEHOUSE specifications. In addition, KDDI can provide a combined solution by providing direct access to the KDDI global network along with the data center.

Osaka と Tokyo のファシリティは、いずれも高負荷 IT インフラのホスティングを可能にする、高密度コロケーション・サービスを提供する。これらのデータセンターは、プライベート・エンタープライズ・クラウドにおける需要の高まりに対応するものとなるが、パブリック・クラウド・サービス・プロバイダーや、オンライン/メディア・コンテンツ事業にも提供される。 また、冗長性とアップタイムに関しては、高品質な Global TELEHOUSE スペックを反映した、Tier 3+ のデータセンター・スタンダードで設計され、また、地震に関しては長周期での吸収構造を用いることで、そのに影響を受けにくいデザインとなっている。それに加えて、KDDI Global Network へのダイレクト・アクセスを、これらのデータセンターに提供することで、KDDI は複合的なソリューションを実現していくとされる。

クリックでスペック・シート ⇒

Telehouse Osaka 2, located in the center of Osaka city, will offer 700 racks of tenancy space with up to 30kVA (designed) per rack. The technical and operations room will be situated above second floor avoiding the risk of potential flooding. Osaka 2 can be used as a disaster recovery and back-up site for the Tokyo data centers.

Telehouse Osaka 2 は、大阪市の中心部に位置し、ラックあたり 30kVA(designed)に対応する 700台のラックにより、テナント・スペースの構成する。テクニカルおよびオペレーションのための施設は、2階以上に配置され、水害による危険性を回避するものとなる。また、この Osaka 2 は、東京のデータセンター群のための、DR(disaster recovery)および Back-Up のサイトとしても用いられる。

Telehouse Tokyo Tama 3 will be located on the existing Tama data center campus, approximately 18 miles from the Tokyo city center in a highly guarded surrounding. The five story building will offer 1,300 racks of tenancy space with up to 42kVA (designed) power supply to racks, the highest(*1) in Japan and 5 times(*2) industry average, with a designed PUE 1.31 making it one of the most energy efficient data centers in Japan.

Telehouse Tokyo Tama 3 は、東京の中心部から 18マイルほど離れた、きわめてセキュアな環境の中で運用されている、Tama Data Center Campus 内に配置される。そして、5階建てのビルディングに収納される、ラックあたり 42kVA(designed)に対応する 1300台のラックにより、テナント・スペースの構成する。この電力密度は、日本で最高(*1)のものであり、また、業界平均の 5倍(*2)に達するものとなる。そして、PUE 1.31 を実現する、日本で最もエネルギー効率の良いデータセンターの1つとなる。

The Telehouse data center expansion reflects the growing demand for data center space in Japan’s metros, and the ability of KDDI to accommodate leading multinationals expanding their portfolios in Japan. By securing its domestic market share in Japan, KDDI continues to be the leader in premium data center facilities.

この、Telehouse Data Center の拡大は、日本における都市型データセンター・スペースに対する、需要の高まりを反映したものとなる。 そして、日本でのポートフォリオを拡大する、主だった多国籍企業を収容する、KDDI のキャパシティを拡大していくことになる。 日本国内でのマーケット・シェアを確かなものにすることで、KDDI は高品質データセンター・ファシリティのリーダーであり続けようとしている。

To learn more about TELEHOUSE America and KDDI visit http://www.telehouse.com and http://global.kddi.com/.

(*1) As of Aug 26. Research from KDDI based on public information.

(*2) Compared with TELEHOUSE data centers in Japan.

ーーーーー

Over 30kVA というのは凄まじいですね :) そろそろ、15kVA の時代かなぁ・・・ などと考えていた Agile_Cat などは、その予想を完全に覆されてしまい、かなりビックリしています。 もちろん、すべてのラックに、それだけの電力を供給できるという話ではなく、特定のラックに対してという話のはずですが、それにしてもスゴイことです。 排熱は、どうするのでしょうね? 今度、チャンスがあったら教えてもらいたいですねぇ。

ーーーーー

<関連>

ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期のデータセンター資産へ
シンガポール は データセンター 天国 : Equinix は語る
NTT は DC 事業者 RagingWire を買収し、国際戦略の要とするのか?
CloudStack がテレコムに好まれる理由 : 世界から集まった8名の証人たち

送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!

Posted in .Selected, Data Center Trends, Energy, Green IT by Agile Cat on August 21, 2014

A next-gen battery is coming soon to the power grid
http://wp.me/pwo1E-7LS

By Katie Fehrenbacher – Feb 4, 2014
http://gigaom.com/2014/02/04/the-power-grid-is-getting-a-lot-of-new-next-gen-battery-options-this-year/


_ Giga Om

Summary: Flow batteries are funky large batteries that use liquid tanks and pumps. There’s a new one being commercialized by a Silicon Valley startup.

Summary: フロー・バッテリーとは、液体のためのタンクやポンプを用いる、ちょっと型破りな大型のバッテリーのことである。そして、Silicon Valley のスタートアップにより商品化された、新しいプロダクトが登場した。

ーーーーー

2014 seems poised to be the year that next-generation battery technologies become more widely available for the power grid. On Tuesday a five-year-old venture capital-backed startup called Primus Power announced that it’s raised another round of $20 million in funding, which it will use to get its battery technology to its first utility and power customers this year.

2014年は、次世代バッテリー・テクノロジーが、送電網において広範囲に利用されるよう、準備を整える年になりそうだ。この火曜日(2/4)に、Primus Power( 5年間に渡りベンチャー・キャピタルの支援を受けてきた)というスタータップが、別のラウンドで $20 Million を調達したと発表した。そして、年内には、Utility and Power の顧客たちに、そのバッテリー・テクノロジーを提供できるようにするようだ。

Primus Power makes “flow batteries,” which store energy like the batteries in your laptop do, but which have the electrolyte (the substance that acts as the medium for the charging and discharging) separated out of the battery cell in liquid-filled tanks. The systems use a pump to move the liquid electrolyte over the electrode, which in turn stores energy.

Primus Power が作るフロー・バッテリーは、あなたのラップトップ PC に似たようなかたちで蓄電するが、その電解質(充放電のための媒体として作用する物質)は、液体で満たされたタンク内のバッテリー・セルから分離されている。つまり、このシステムはポンプを用いて、電極上に電解液を循環させることで蓄電していく。

The Primus Power shipping container, filled with flow batteries.

The benefit of this design is that flow batteries can be cheaper, can be more easily refillable, and can provide prolonged amounts of energy storage compared to traditional enclosed batteries. Primus Power’s flow batteries are supposed to be able to provide energy storage for over a period of four or five hours, while a lithium ion battery can provide energy storage for about an hour, Primus Power’s CEO Tom Stepien told me in an interview a couple years ago.

このデザインの利点として挙げられるのは、フロー・バッテリーが安価であり、電解液の充当が容易であり、また、従来からの封入型バッテリーと比べて、長時間にわたって電力を供給できる点にある。Primus Power のフロー・バッテリーは、4時間〜5時間にわたって放電できるようになっているが、リチウム・イオン電池の場合は、約1時間の放電が限界であると、Primus Power の CEO である Tom Stepien が、数年前のインタビューで語っていた

Primus Power sells an “EnergyPod,” (see above) which is basically a shipping container that’s filled with around a dozen flow batteries stacked on top of each other. Each EnergyPod has capacity to store 250 kW of energy for a cost of $500 per kWh. For large installations a utility can install multiple shipping containers and manage them with the computing and software that Primus Power also provides.

Primus Power が販売する EnergyPod は、輸送用コンテナをベースにしたものであり、その内部は、積み重ねられた十数基のフロー・バッテリーで満たされている。それぞれの EnergyPod は、250 kW を充電することが可能であり、そのコストは kWh あたり $500 となる。また、電力会社などが大規模な導入を行う際には、複数のコンテナをインストールすることが可能であり、Primus Power が提供するコンピューティングとソフトウェアにより、それらを管理できる。

The electrode sits at the top of the flow battery.

Power companies are looking to add energy storage technologies like batteries and flow batteries to the grid as a way to store energy generated by clean power sources like solar and wind, which only provide energy when the sun shines and wind blows. The idea is that a flow battery could store energy from, say, a wind turbine, when the wind is blowing extra hard, and the battery can release the extra energy over four or five hours as the wind dies down.

電力会社は、太陽光や風力といった、クリーンであっても生成が不安定なエネルギーを蓄積するための方式として、送電網にバッテリーやフロー・バッテリーなどの、エネルギー・ストレージ・テクノロジーを加えたいと考えている。この、フロー・バッテリーのアイデアにより、たとえば風力発電の場合なら、強風により余剰な電力が供給されるときに蓄電して、風が止んだらバッテリーから、4時間〜5時間ほどの放電が可能なるのだ。

While flow batteries have been on the market for awhile, Primus Power’s flow battery is supposed to be more efficient because it uses one tank, one flow loop, one pump, and no separator (many current ones on the market use two tanks and a separator). Primus’ electrode is also made of metal, compared to the felt or plastic electrodes of some competitors (so higher conductivity) and the electrolyte itself — that flows through the system — is zinc-based.

このところ、いくつかのフロー・バッテリーが市場に登場しているが、Primus Power のフロー・バッテリーは、タンク/フローループ/ポンプが1つずつで済み、また、セパレータが不要である(数多くのプロダクトが、市場で提供されているが、そのすべてが 2つのタンクを用い、セパレータを必要とする)。いくつかのコンペティタが、フェルトまたはプラスチック(もしくは、それ以上の導電率を持つ物質)の電極を用いているのとくらべて、Primus は金属製を用いている。また、そのシステムの全体を構成する電解質は、亜鉛ベースの材質となる。

An early version of Primus Power’s electrode.

Other startups that are building the next-generation of low cost batteries for the power grid include Ambri, Eos Energy, Aquion Energy and others. Several of these companies are looking to commercialize their technology this year. And it’s not just batteries that are emerging for energy storage and the power grid — startups like LightSail Energy and SustainX are working on reinventing compressed air energy storage.

その他にも、Ambri/Eos Energy/Aquion Energy などを含むスタートアップたちが、送電網用の低コスト次世代バッテリーを構築している。そして、そのうちの何社かは年内に、そのテクノロジーを商用化しようとしている。 ただし、こうした動きは、バッテリーだけにとどまらない。LightSail Energy や SustainX といったスタートアップは、圧縮空気によるエネルギー蓄積技術を改善することで、電力網のための電力ストレージに取り組んでいる。

Primus Power has raised a total of $35 million from investors including Kleiner Perkins, Chrysalix, DBL Investors and I2BF Global Ventures. The new round was led by South Africa-based resource developer Anglo American Platinum Limited. Primus has also received $20 million worth of grants from U.S. government agencies, like the Department of Energy.

Primus Power は、Kleiner Perkins/Chrysalix/DBL Investors/I2BF Global Ventures といった投資家たちから、合計で $35 Million の資金を調達している。今回のラウンドは、South Africa ベースの資源開発会社である Anglo American Platinum Limited が主催したものである。そして、ここでも Primus は、Department of Energy といったアメリカ政府機関から、$20 Million の助成金を得ている。

Primus Power is looking to use these latest funds to deliver their first EnergyPods to customers. Customers include a utility in Modesto, California, the Bonneville Power Administration in the Pacific Northwest, and a microgrid at the Marine Corps Air Station in Miramar, California. California could be home to many of these new power grid energy storage innovations, following the state’s decision to support a large amount of energy storage projects by 2020 in order to help the state meet its renewable energy mandate.

Primus Power は、それらの資金を用いて、最初の顧客たちに EnergyPods を供給しようとしている。そして、それらの顧客には、California の Modesto や、Pacific Northwest の Bonneville Power Administration といった電力会社や、California の Marine Corps Air Station におけるマイクログリッドなどが含まれる。California は、送電網のための、新たな電力ストレージ・テクノロジーの本拠地になれるかもしれない。それは、2020年までに再生可能エネルギーの活用を促進するという、州政府が決定した大量エネルギー・ストレージ・プロジェクトを、サポートするものでもある。

Related research

The fourth quarter of 2012 in clean tech – January 2013
The next generation of battery technology – October 2012
Cleantech third-quarter 2012 – October 2012

ーーーーー

今年の2月の記事であり、だいぶ時間が経ってしまいましたが、とても興味深い内容なので訳してみました。 日本でも、さくらインターネットなどによる 石狩超電導直流送電プロジェクトや、NTT Data による 高電圧直流給電(HVDC)テクノロジーといった、エネルギーとデータセンターの関係を再構築していこうという取り組みが進んでいます。 そして、この Primus Power の EnergyPods も、大がかりな蓄電は不可能という固定概念を、打ち破ろうとする試みとして捉えることが可能です。 まだまだ、時間はかかるでしょうが、それぞれの領域でテクノロジーが磨かれていくことで、安全でクリーンなエネルギーにより、データセンターが効率よく動き続けるという、新しい時代にたどり着けると信じています。

ーーーーー

<関連>

Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えるべき
Data Centers の調査 : データセンターの効率を多角的に考える
SoftBank と Bloom Energy が提携 : 最新の燃料電池が日本にやってくる!
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!
OCP データセンターと、高温多湿気候との関係について

Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期のデータセンター資産へ

Posted in .Chronicle, .Selected, Data Center Trends, Google by Agile Cat on August 19, 2014

Google: From 112 Servers to a $5B-Plus Quarterly Data Center Bill
http://wp.me/pwo1E-7Lz

Yevgeniy Sverdlik – July 23, 2014
http://www.datacenterknowledge.com/archives/2014/07/23/from-112-servers-to-5b-spent-on-google-data-centers-per-quarter/

_ DC Knowledge

It was only 15 years ago that Google was running on slightly more than 100 servers, stacked in racks Sergey Brin and Larry Page put together themselves using cheap parts – including insulating corkboard pads – to cut down the cost of their search engine infrastructure.

それは、たった 15年前のことである。Sergey Brin と Larry Page の手により、Google が 100台少々のサーバー上で動き始めたのだ。絶縁体として用いられるコルク・ボードパッドまで含めて、安価なパーツで構成されるサーバーが、ラックの中に積み上げられていった。そうすることで、検索エンジンのインフラ・コストを、彼らは削っていった。

That do-it-yourself ethos has stayed with the company to this day, albeit it is now applied at much bigger scale.

この、日曜大工的な精神は、そのまま同社に生き続けているが、いまでは比べものにならないスケールで適用されている。

Google data centers cost the company more than $5 billion in the second quarter of 2014, according to its most recent quarterly earnings, reported earlier this month. The company spent $2.65 billion on data center construction, real estate purchases and production equipment, and somewhat south of $2.82 billion on running its massive infrastructure.

7月初めに報告された、直近の四半期決算によると、2014年 Q2 における Google データセンターのコストは、$5 billion 以上とされている。 同社は、データセンターの建設および、不動産の取得、設備の購入などに$2.65 billion を投資し、また、大規模なインフラストラクチャを運用するために、$2.82 billion を費やしている。

The $2.82 billion figure is the size of the “other cost of revenue” bucket the company includes its data center operational expenses in. The bucket includes other things, such as hardware inventory costs and amortization of assets Google inherits with acquisitions. The size of this bucket in the second quarter represented 18 percent of the company’s revenue for that quarter. It was 17 percent of revenue in the second quarter of last year.

この $2.82 billion という数字は、データセンターの運用コストを含む、同社における「その他のコスト」を、大まかなところでザックリと示している。この数字には、たとえばハードウェア在庫の金額や、Google の買収先から継承する償却資産といったものが含まれている。今年の Q2 における、この数字の規模は、同じ Q2 の売上高に対する 18% を占めている。そして、昨年の Q2 では、この数字は 17% であった。

Google’s largest server order ever

While the amount of money Google spends on infrastructure is astronomically higher than the amount it spent 15 years ago, the company makes much more money per server today than it did back then.

いまの Google が、インフラに費やすコストは、15年前とくらべて天文学的に膨らんでいる。つまり、当時と比べて、サーバーごとに費やす金額が大きくなっているのだ。

“In retrospect, the design of the [“corkboard”] racks wasn’t optimized for reliability and serviceability, but given that we only had two weeks to design them, and not much money to spend, things worked out fine,” Urs Hölzle, Google’s vice president for technical infrastructure, wrote in a Google Plus post today.

「 いまになって、振り返ってみると、あの “コルク・ボード” ラックのデザインは、信頼性と保守性という意味で最適化されていなかった。しかし、二週間でデザインを完了し、しかも、多額の費用をかけられなかったことを考えると、上手くいったのだろう」と、Google の VP for Technical Infrastructure である Urs Hölzle が、今日の Google+ にポストしている。

One of Google’s early “corkboard” racks is now on display at the National Museum of American History in Washington, D.C.

In the post, Hölzle reminisced about the time Google placed its largest server order ever: 1,680 servers. This was in 1999, when the search engine was running on 112 machines.

そのポストで Hölzle は、当時としては史上最大である、1680 台のサーバーを発注したときの思い出にも触れている。 それは、1999年のことであり、すでに同社の検索エンジンが、112台のマシン上で実行されていたときの話しでもある。

Google agreed to pay about $110,000 for every 80 servers and offered the vendor a $2,000 bonus for each of the 80-node units delivered after the first 10 but before the deadline of August 20th. The order was dated July 23, giving the vendor less than one month to put together 800 computers (with racks and shared cooling and power) to Google’s specs before it could start winning some bonus cash.

Google は、80台のサーバーで構成される1ユニットに対して、$110,000 を支払うことに合意した。 そして、8月20日までに、最初の 80 ノード x 10ユニットを納入することで、ユニットごとに $2000 のボーナスを提供すると、そのベンダーに約束した。 この発注は 7月23日付けであり、そのベンダーは 800台のコンピューターを、1ヶ月足らずで調達しなければならなかった(ラックと共有ファンと電源も含む)。 しかも、ボーナスを手にする前に、Google の要求するスペックに合わせなければならない。

Hölzle included a copy of the order for King Star Computer in Santa Clara, California. The order describes 21 cabinets, each containing 60 fans and two power supplies to power those fans.

Hölzle は、そのブログ・ポストに、Santa Clara, California の King Star Computer 宛に発行した、発注書をコピーしてくれた。それは、21台のユニットを発注するものであり、それぞれに 60台のファンと、そのための 2つの電源が取り込まれるものであった。

There would be four servers per shelf, and those four servers would share:

1つのシャシーに 4台のサーバーが配置され、以下を共有する:

  • 400-watt ball bearing power supply
  • Power supply connector connecting the individual computers to the shared power supply
  • Two mounting brackets
  • One plastic board for hard disks
  • Power cable

Each server would consist of:

個々のサーバーの構成要素:

  • Supermicro motherboard
  • 265 megabytes of memory
  • Intel Pentium II 400 CPU with Intel fan
  • Two IBM Deskstar 22-gigabyte hard disks
  • Intel 10/100 network card
  • Reset switch
  • Hard disk LED
  • Two IDE cables connecting the motherboard to the hard disk
  • 7-foot Cat. 5 Ethernet cable

Google’s founders figured out from the company’s early days that the best way to scale cost-effectively would be to specify a simple server design themselves instead of buying off-the-shelf all-included gear. It designs its hardware on its own to this day. Other Internet giants that operate data centers at Google’s scale have followed suit.

Google の創設メンバーたちは、同社が立ち上がったときから、すべてのギアが取り込まれた既成品サーバーを購入するのではなく、ニーズに適合するシンプルなサーバーを自らデザインすることが、大きなスケールで費用対効果を向上させる方法だと、理解していたことになる。そして、ハードウェアを独自にデザインするという考え方は、今日まで続いている。 さらに言えば、Google スケールでデータセンターを運営する、他のインターネット・ジャイアントたちも、それを追随してきたことになる。

ーーーーー

とても面白い話なので、楽しみながら訳すことができました :) そして、分かったことは、今日に至るまで Google が、既成品としてのサーバーを、まったく購入していないという、徹底したカスタム路線を貫いていることです(多少の例外はあるかも?)。 いつ頃から、台湾の ODM に発注先が切り替わったのか、そのあたりは分かりませんが、データセンターを運用する側が、つまりユーザー側が、サーバーをデザインすべきという発想の原点が、ここにあるのでしょう。 Open Compute Project Japan を、お手伝いしている Agile_Cat としても、このトピックを皆さんと共有できて嬉しいです。 何かの機会があり、Washington, D.C. へ行くことがあるなら、National Museum of American History で初代 Google サーバーを見学したいものですね。

ーーーーー

<関連>

Google のインフラ投資は ケタ外れ:それを示す1枚のチャート
なぜ、IBM は Power チップをオープン化したのか? Google の戦略は何処にあるのか?
Facebook と Open Compute が、Wedge という名の オープン・スイッチを発表!
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
台湾の Wistron と Inventec が、ついに ARM サーバーの生産に着手する!
Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えなければならない

%d bloggers like this: