Agile Cat — in the cloud

SAP 争奪戦:IBM が Amazon に対して、一歩 リードしたようだ

Posted in Amazon, Bare-Metal, IBM by Agile Cat on October 17, 2014

IBM Scores Another Win Over Amazon’s Cloud Thanks To SAP
http://wp.me/pwo1E-7Xq
Julie Bort – Oct. 14, 2014
http://www.businessinsider.com/ibm-and-sap-score-win-over-amazon-2014-10

_ Business Insider

On Tuesday, longtime partners IBM and SAP announced another new bond: SAP will use IBM’s cloud for its pride-and-joy database HANA.

この火曜日に、長年にわたる IBM と SAP のパートナーシップが、さらに関係を深めるという発表があった。 つまり、SAP は、その懐刀である、データベース HANA のために、IBM のクラウドを活用することになる。

IBM and SAP have long ago realized that the "enemy of my enemy is my friend." SAP developed its database HANA to stick it to its arch rival Oracle. HANA is known as an "in-memory" database, able to crunch through huge amounts of data really quickly.

ずっと以前から IBM と SAP は、「敵の敵は友」であることを認識している。SAP は、最大のライバルである Oracle に追い付くために、データベース HANA を開発した。HANA は、きわめて大量のデータを瞬時に処理する、In-Memory データベースとして認識されている。

 Flickr/IBM
IBM CEO
Ginni Rometty

Oracle has its own in-memory database, and it is selling it on its own hardware. In the process, Oracle execs have thoroughly trash-talked both SAP and IBM.

また、Oracle は、独自の In-Memory データベースを有し、それを独自のハードウェアに実装して販売している。 そして、これまでの経緯において、Oracle の首脳陣は IBMSAP  などは話にならないと述べている。

Meanwhile, IBM has banked its future on cloud computing, and it wants enterprise users to see it as the King of the Cloud, not Amazon.

その一方で、IBM はクラウド·コンピューティングに未来を賭け、エンタープライズ·ユーザーが Amazon に代えて、King of Cloud と認識してくれる状況を望んでいる。

IBM isn’t alone. All the big enterprise IT vendors are shooting to best Amazon’s cloud including Oracle, HP, and Microsoft. And there are new players wanting to grab some cloud-computing game like Google and hot startups like Digital Ocean.

しかし、そう考えるのは IBM だけではない。Oracle/HP/Microsoft などを含む、すべての大手エンタープライズ IT ベンダーが、Amazon が支配するクラウド・マーケットを狙っている。 さらに言えば、Google だけではなく、Digital Ocean のようなホット・スタートアップも、クラウド・コンピューティングでの戦いに参加しようとしている。

SAP has been offering its Oracle-killer database, HANA, as a cloud service for a while because SAP wants to be known as cloud royalty, too. Early on it signed on a cloud partner to sell a limited, cloud version of HANA. That partner was Amazon.

SAP は、Oracle キラー・データベースである HANA を、まずはクラウド・サービスとして提供する。なぜなら、SAP も、クラウドに対するロイヤリティを持っていると思われたいからである。今回のクラウド·パートナー契約では、HANA クラウド·バージョンに限定した販売から始まるが、そのパートナーは Amazon だったのである

But IBM has one-upped Amazon because IBM will be selling the full version of SAP’s database in the cloud, known as SAP HANA Enterprise. This is a critical difference for enterprises. While enterprises might test HANA using Amazon’s cloud, they couldn’t really use HANA for big apps. And the point of HANA is to use it for big apps.

そして、次のステップで IBM が販売することになるのは、SAP HANA Enterprise という、クラウドにおける SAP データベースのフル・バージョンである。 つまり、IBM は Amazon の先を行くことになる。それは、エンタープライズにとって、大きな差別化となるだろう。 つまり、Amazon クラウドを使用して、それらのエンタープライズは HANA をテストできるが、本当に大規模なアプリケーションのために、HANA を使用することができなかった。HANA の利点は、大規模アプリケーションのために活用できるところにある。

IBM has been selling SAP apps for enterprise customers for decades. So it makes sense that SAP would turn to IBM to help it host its cloud.

これまでの数十年にわたって、BM は SAP のアプリケーションを販売してきた。したがって、そのクラウドをホストする先を、IBM に切り替えるということは、SAP にとって理にかなっている。

There’s another benefit to the agreement. The NSA spying scandal has made European companies (particularly in SAP’s home country of Germany) suspicious of using cloud services hosted in the United States, such as Amazon’s. IBM has over a dozen data centers in Europe and is in the middle of building 15 more outside the US, too.

この契約は、別のメリットも含んでいる。NSA のスパイ行為というスキャンダルにより、クラウド・サービスを利用する欧州の企業が(特に SAP の母国であるドイツで)、米国でホスティングされる Amazon などに、懐疑の目を向けているのだ。その点において IBM は、欧州に 10ヶ所以上のデータセンターを有し、また、15ヶ所以上を米国外に構築中である。

With this agreement, SAP pushes its database out on a cloud around the world. And IBM gets some bragging rights over Amazon.

この契約により、SAP は世界中のクラウド上で、そのデータベースをプッシュできるようになる。そして IBM は Amazon に対して、何らかの自慢話をできる権利を手にする。

ーーーーーー

この記事は、あくまでもビジネス上の整合性や、データセンターのロケーションから、IBM が優位に立ったと述べていますが、ひょっとすると SoftLayer のベア・メタル対応も、1つの要因になっているのかもしれません。  以前に、「SAP と HANA が、Open Compute に恋する理由」という抄訳をポストしましたが、この記事では HANA とベアメタルの相性について説明するものとなっています。 よろしければ、ご参照ください。

ーーーーーー

<関連>

IBM のクラウド戦略:SoftLayer London データセンターが立ち上がる
Internap の ベアメタル OpenStack クラウドが、Hong Kong DC にも展開される!
Instagram の史上最大のマイグレ:200億枚のイメージを AWS から FB Bare-Metal へ!
Cloud の調査: Docker によるアプリのパッケージ化は、すでに大きな実績を残し始めている!
Rackspace の OnMetal サービスが、Post-VM 時代のクラウドを提起する

Google は言う:クラウドの料金も ムーアの法則に従うべきだ!

Posted in Data Center Trends, Businesses, .Chronicle, Amazon, Google, .Selected, Energy by Agile Cat on October 2, 2014

Google Says Cloud Prices Will Follow Moore’s Law: Are We All Renters Now?
http://wp.me/pwo1E-7UY
Wednesday, May 14, 2014
http://highscalability.com/blog/2014/5/14/google-says-cloud-prices-will-follow-moores-law-are-we-all-r.html

_ highscalability

After Google cut prices on their Google Cloud Platform Amazon quickly followed with their own price cuts. Even more interesting is what the future holds for pricing. The near future looks great. After that? We’ll see.

Google が、その Google Cloud Platform の価格を引き下げ、すぐに Amazon も追随した。さらに興味深いのは、将来における価格の設定である。 おそらく、近い将来に、素晴らしい状況になるだろうが、なにが、そうさせるのだろう?

Adrian Cockcroft highlights that Google thinks prices should follow Moore’s law, which means we should expect prices to halve every 18-24 months.

Google が考えているのは、その価格はムーアの法則に従うべきだというものであり、18ヶ月〜24カ月で半額になることを期待できるはずだと、Adrian Cockcroft は強調している。

That’s good news. Greater cost certainty means you can make much more aggressive build out plans. With the savings you can hire more people, handle more customers, and add those media rich features you thought you couldn’t afford. Design is directly related to costs.

それは良いニュースだ。 大幅にコストが引き下げられるなら、あらゆる計画を、より積極的に立案していける。クラウド・コストの削減により、より多くの人材を雇用し、より多くの顧客に対応し、余裕がなければ対処できないことを、それらのメディアを用いて実現していける。 デザインというものは、コストの影響をダイレクトに受けるのだ。

Without Google competing with Amazon there’s little doubt the price reduction curve would be much less favourable.

Amazon と競合する Google という存在がなければ、低価格化の曲線は、はるかに魅力のないものであったいう疑念が、少なからず残される。

As a late cloud entrant Google is now in a customer acquisition phase, so they are willing to pay for customers, which means lower prices are an acceptable cost of doing business. Profit and high margins are not the objective. Getting market share is what is important.

遅れてクラウド(IaaS の意味)に参入してきた Google にとって、いまは顧客を獲得するフェーズにある。 したがって、顧客がビジネスを展開しやすいような、低コストを提示するという、利益を度外視した戦略をとってきている。つまり、大きな利益やマージンは二の次なのである。 そして、マーケットでシェアを取ることが最優先されている。

Amazon on the other hand has been reaping the higher margins earned from recurring customers. So Google’s entrance into the early product life cycle phase is making Amazon eat into their margins and is forcing down prices over all.

その一方で、Amazon は、継続して利用してくれる顧客から、より高い利益率を享受してきた。つまり、確立しつつあるプロダクト・ライフサイクルのフェーズに、Google が乱入してきたことで、Amazon のマージンは圧縮され、すべてにおいて価格の引き下げを強いられている。

But there’s a floor to how low prices can go. Alen Peacock, co-founder of Space Monkey has an interesting graphic telling the story. This is Amazon’s historical pricing for 1TB of storage in S3, graphed as a multiple of the historical pricing for 1TB of local hard disk:

しかし、低価格化が行き着く先としての底値があるのだ。Space Monky の co-founder である Alen Peacock が、そのストーリーを説明する、興味深いチャートを提供している。それは、1TB のハードディスクをローカルで持つ場合と、1TB のストレージを Amazon の S3 に持つ場合で、何倍の対価が発生するのかを、時間軸の中に示すものとなっている。

_  space

Alen explains it this way:

Cloud prices do decrease over time, and have dropped significantly over the timespan shown in the graph, but this graph shows cloud storage prices as a multiple of hard disk prices. In other words, hard disk prices are dropping much faster than datacenter prices. This is because, right, datacenters have costs other than hard disks (power, cooling, bandwidth, building infrastructure, diesel backup generators, battery backup systems, fire suppression, staffing, etc). Most of those costs do not follow Moore’s Law — in fact energy costs are on a long trend upwards. So over time, the gap shown by the graph should continue to widen.

クラウドの価格は、時間の経過とともに低下し、また、前述のチャート(上記のものとは別のもの)における時間軸では、かなりのペースで下落している。 しかし、このチャートは、クラウド・ストレージの価格と比べて、何倍かの速度でハードディスクの価格が下落している様子を示している。つまり、ハードディスクの価格は、データセンターの価格よりも、はるかに速く下落しているのだ。なぜなら、データセンターのコストには、ハードディスク以外のもの(電源/冷却/帯域幅/建造物/非常用ジーゼル発電機/バッテリ·バックアップ·システム/消火設備/人材など)が含まれるからである。これらのコストの大半は、ムーアの法則に従わないものであり、実際のところ、電力コストの長期的な傾向は上昇曲線にある。 したがって、上記のチャートで示されるギャップは、時間をかけながら広がり続けるはずである。

The economic advantages of building your own (but housed in datacenters) is there, but it isn’t huge. There is also some long term strategic advantage to building your own, e.g., GDrive dropped their price dramatically at will because Google owns their datacenters, but Dropbox couldn’t do that without convincing Amazon to drop the price they pay for S3.

あなた自身でストレージを構築すれば(データセンターにホストされる)、経済的な利点があるが、それほど大きなものではない。それならば、長期的な戦略として、データセンターを自分で構築するという考え方もある。Google は、自身でデータセンターを所有しているため、GDrive の価格を意図的に引き下げることができる。 しかし、Dropboxが、同じように価格を引き下げようとするなら、S3 のコストを引き下げるよう、Amazon を説得しなければならない。

Costs other than hardware began dominating in datacenters several years ago, Moore’s Law-like effects are dampened. Energy/cooling and cooling costs do not follow Moore’s Law, and those costs make up a huge component of the overall picture in datacenters. This is only going to get worse, barring some radical new energy production technology arriving on the scene.

この数年、データセンターのコストは、ハードウェア以外のものに支配され始め、ムーアの法則の効果が希薄になっている。電力を冷却のコストが、ムーアの法則に従うことはなく、また、それらのコストは、データセンター全体という巨大なコンポーネントに影響している。つまり、何らかの革新的なエネルギー生産テクノロジーが登場しなければ、さらに事態は悪化していくだろう。

What we’re [Space Monkey] interested in, long term, is dropping the floor out from underneath all of these, and I think that only happens if you get out of the datacenter entirely.

私たち Space Monkey が、長期的な視点として興味を持っているのは、それらすべての背景から引き離して、いまの下限値を引き下げられるかどうか、という点である。 そして、あなたがデータセンターの中に、まったく踏み込まないのなら、そうなる可能性もあると思えるのだ。

As the size of cloud market is still growing there will still be a fight for market share. When growth slows and the market is divided between major players a collusionary pricing phase will take over. Cloud customers are sticky customers. It’s hard to move off a cloud. The need for higher margins to justify the cash flow drain during the customer acquisition phase will reverse the favorable trends we are seeing now.

クラウド・マーケットの規模が拡大するにつれて、マーケット・シェアの戦いも続いていく。しかし、その成長が減速し、主要なプレーヤーがマーケットを住み分けると、結託した価格政策の時代へと引き継がれていく。クラウドの顧客は、そこに寄り添う顧客である。 したがって、クラウドから逃げ出すのは難しい。将来における高いマージンへの期待が、いまの顧客獲得のフェーズにおける、キャッシュ·フローの流出を正当化しているのかもしれない。そうだとすると、いまの好ましい流れが、いずれは逆転する状況を、私たちは目にすることになる。

Until then it seems the economics indicate we are in a rent, not a buy world.

逆に言えば、経済的な観点において、そうなるまでの間は、買うのではなく借りるという方式が、好ましいのだろう。

Related Articles

  • IaaS Series: Cloud Storage Pricing – How Low Can They Go? – "For now it seems we can assume we’ve not seen the last of the big price reductions."
  • The Cloud Is Not Green
  • Brad Stone: “Bill Miller, the chief investment officer at Legg Mason Capital Management and a major Amazon shareholder, asked Bezos at the time about the profitability prospects for AWS. Bezos predicted they would be good over the long term but said that he didn’t want to repeat “Steve Jobs’s mistake” of pricing the iPhone in a way that was so fantastically profitable that the smartphone market became a magnet for competition.”

ーーーーー

久々の High Scalability からの翻訳ですが、さすがは Todd Hoff さん、視点が鋭いです。 サーバーにしろ、ストレージにしろ、IT 機器はムーアの法則に則って、これから先もコストを引き下げていくのでしょうが、クラウドにはデータセンターならではのコスト、というものが含まれます。そして、インフラのレイヤを下っていって、電気料金のところまでいくと、そこは固定されていて動かしようがない、というのが普通の状況です。でも、Google が、そう言うからには、再生可能エネルギーの生産まで含めて、将来をデザインしているのかもしれません。 とても興味深い話ですね!

ーーーーー

<関連>

送電網の UPS として機能する次世代バッテリー・テクノロジー
eBay のデータセンターは、燃料電池から 6MW を絞り出す
Facebook の空母のような DC: 効率/温度/湿度 を Web モニタリング!
Google がフィンランドに作った海水冷 DC とは?
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!

ヨーロッパを 仮想 DC でカバーする、謎の Interoute クラウドが香港に進出!

Posted in .Selected, Asia, Data Center Trends, Hybrid by Agile Cat on October 1, 2014

Interoute opens in Hong Kong data center
New facility expands reach at a time when more companies are looking east
http://wp.me/pwo1E-7UP
7 April 2014 by Eira Hayward
http://www.datacenterdynamics.com/focus/archive/2014/04/interoute-opens-hong-kong-data-center

_ DC Dynamics

Interoute is taking its cloud computing solution to the Far East with the opening of a Virtual Data Center (VDC) in Hong Kong. It means Interoute customers can now choose from seven VDC zones – Amsterdam, Berlin, London, Paris, Milan or Hong Kong – to gain fast access to their applications and data.

Interoute は Hong Kong に Virtual Data Center(VDC)をオープンすることで、そのクラウド·コンピューティング·ソリューションを Far East に持ち込もうとしている。それにより、Interoute の顧客たちは、アプリケーションとデータへの高速でのアクセスを達成するために、Amsterdam/Berlin/London/Paris/Milan/Hong Kong などで構成される 7つの VDC ゾーンを選択できるようになる。

Interoute plays to its network advantage, offering one SLA for both networking and cloud computing and not charging for data transfer. Interoute general manager for cloud computing Lee Myall said the expansion has come primarily as a result of European businesses pushing east.

Interoute の特徴は、ネットワークのアドバンテージにあり、ネットワーキングとクラウド・コンピューティングの双方を網羅する単一の SLA を提供するが、データ転送について課金することはない。Interoute の General Manager for Cloud Computing である Lee Myall は、今回の拡張について、欧州企業をアジアにプッシュするという、主要な目標を達成するための結果だと説明している。

クリックで拡大 ⇒ 

He said there would be more VDCs to come, both in the Far East and elsewhere, as Interoute continues to expand. “This expansion is about pushing compute power to the boundaries of our network, but I can foresee that computing will start dragging the network to a few places,” Myall said. “Hong Kong is already filling up – we have customers with big migration plans who are going live at the moment.”

Myall が言うには、Interoute が拡大し続けるにつれて、Far East などの地域で、これまで以上の VDC が立ち上がっていくようだ。「 この拡張は、私たちのネットワークの境界線へ向けて、コンピューティング・パワーをプッシュするものだが、そのコンピューティングが私たちの領域を、押し広げ始めると予見している。すでに Hong Kong は満杯であり、これから移行しようと計画している、たくさんの顧客を持っている」と、彼は続けている。

The VDC is built into the core of Interoute’s network and, according to the company, this means it can deliver a fully networked cloud which is faster and has greater resilience and security than other cloud computing services.

この VDC は、Interoute ネットワークのコアに組み込まれる。そして、同社によると、他のクラウド・コンピューティング・サービスと比較して高速であり、高い弾力性と安全性を保持する、フル・ネットワーク化されたクラウドを提供できることになる。

Interoute’s move comes at a time when spending on cloud services in Asia Pacific is growing at a CAGR of 30%, according to IDC, and the Asian market is providing robust growth for both local and Western multinationals.

この、Interoute の動きは、Asia Pacific のクラウド・サービスに対する支出が、30% の CAGR で成長していると、IDC が述べるタイミングで生じている。また、Asia のマーケットは、ローカルの企業と、西欧の多国籍企業に対して、堅調な成長をもたらしている。

Last week, for example, IBM announced that luxury children’s fashion retailer Club 21 will be using its cloud, e-commerce and analytics software to expand its online presence across Asia-Pacific, increasing its reach from four to 15 countries across the region.

例を挙げると、先週に IBM が発表したのは、高級子供服のリテーラーである Club 21 が、Asia-Pacific 全体にまたがるオンライン・プレゼンスを高めるために、そのクラウド/コマース/分析のソフトウェアを使用するというものだ。それにより、この地域においてリーチしていく対象が、4カ国から 15カ国に増えることになる。

The importance of Asian markets for multinational businesses was reinforced by recent pan-Asian large research project from Telstra Global which found that 83% of multinationals in Asia expect to either meet or exceed their financial and strategic objectives in the next three years.

多国籍企業にとって、Asia のマーケットの重要性は、Telstra Global が実施した Pan-Asia 大規模調査により裏付けられている。その調査では、Asia における多国籍企業の 83% が、今後の3年間で、それぞれの財務および戦略の目標を達成したいと望んでいることが分かった。

Telstra Global’s Connecting Countries report found that the ICT industry in particular is a stand-out success in Asia, with 71% of ICT companies having been very successful in Asia in the past three years, compared to 61% of companies across other sectors.

Telstra Global の Connecting Countries レポートは、とりわけ ICT 産業が、Asia のマーケットで成功していると指摘している。この地域における、これまでの 3年間のデータによると、ICT 企業の 71% が成功を収めているが、他の地域での成功率は 61% となる。

“Over the next three years both financial services and insurance companies and those in the ICT sector are most bullish about exceeding their objectives in Asia, with 55 and 51% respectively, compared to 42% across the board,” said Telstra Global managing director Martijn Blanken.

「 これからの 3年間において、金融サービスおよび保険会社と、その ICT 部門が、Asia で成功していくだろう。 それぞの目標値は、55% と 51% であるが、世界の平均は 42% である」と、Telstra Global の Managing Director である Martijn Blanken は述べている。

ーーーーー

ヨーロッパのクラウドは、いったい、どうなっているのかと、以前から不思議に思っていました。 そして、数ヶ月ほど前に、この Interoute の存在を知ったのですが、同社の Web ページから拾ってきたマップを見ても、「なるほど、ヨーロッパ的だ」という雰囲気が漂ってきます。 アメリカ型の巨大データセンターを中心とする構造ではなく、それぞれの国や都市に分散するデータセンターを、メッシュ状にネットワークしていくという考え方のようです。 何年か前に、スマートグリッドのことを調べていて、国ごとに経済エリアを区切ることが、ヨーロッパでは必要だからという理由に、納得したことを思い出しました。 送電網もファイバー網も、国境ををまたいで物理的に結ばれているわけですが、経済を考えた場合に、どこかに論理的な仕切を入れる必要があるのでしょう。 ひょっとすると、1つの事業体に見える Interoute も、各国に分散する企業の集合体なのかもしれません。 この、謎だらけのヨーロッパ・クラウドを、これからも追いかけてみたいと思っています。

ーーーーー

<関連>

Hybrid 対 Public : ユーザーの必要性と、ベンダーの目論見は、どこで交差するのか?
ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Hybrid の調査: 企業データを分析すると、20-60-20 の 仕分けシナリオが見えてくる
Rackspace と CERN が推進する OpenStack ハイブリッド戦略とは?
Equinix Cloud Exchange により、洗練されたハイブリッド・クラウドが実現されていく

Dell/HP/Intel/Emerson が構築する Redfish は、IPMI 以来のスタンダードになり得るのか?

Posted in Data Center Trends, DCIM, Energy, Green IT by Agile Cat on September 26, 2014

Dell, HP, Intel and Emerson partner to develop new industry standard: Redfish
http://wp.me/pwo1E-7U5
Brian Karlovsky | Sept. 9, 2014
http://www.arnnet.com.au/article/554452/dell-hp-intel-emerson-partner-develop-new-industry-standard-redfish/

Dell, HP, Intel and Emerson are set to develop a new industry standard to increase the productivity of system administrators through improved datacentre management, analysis and security.

Dell/Emerson/HP/Intel が、データセンターにおける管理/分析/セキュリティの改善を通じて、システム・アドミニストレータの生産性を向上させるべく、新しい業界スタンダードを作成しようとしている。

The new specification, Redfish, is still under development and will be one of the most comprehensive since the Intelligent Platform Management Interface (IPMI) was first launched in 1998, according to a statement.

この、新しい仕様である Redfish は、現時点において作成中である。 そして、このパートナーシップのステートメントによると、1998年に立ち上げられた Intelligent Platform Management Interface (IPMI) 以来の、最も包括的なものになるという。

_  space

_  space

Redfish uses a modern network interface style, allowing access to data using even simple, script-based programming methods. It will be designed to improve scalability and expand data access and analysis, help lower costs, and further enable feature-rich remote management while ensuring a secure solution that protects investment.

Redfish では、きわめてシンプルなスクリプトベースのプログラミング・メソッドにより、データへのアクセスを実現するために、最新のネットワーク·インターフェース·スタイルが用いられる。そのデザインは、スケーラビリティを向上させ、データに関するアクセスと分析を強化し、また、コストの削減を促進しながら、さらにリッチなリモート・マネージメントを実現するものであるが、投資を保護するセキュアなソリューションも約束される。

According to a company statement, the group collaborating on Redfish development is focused on ensuring the specification enhances interoperability across multiple server environments and significantly simplifies management, allowing administrators to speak one language and be more productive. It will also enable access to massive amounts of information and the ability to translate the data into actionable insights for system monitoring and management.

この団体のステートメントによると、Radfish 仕様の作成におけるグループとしての協調は、マルチ・サーバー環境をカバーするインターオペラビリティと、大幅に簡素化された管理形態にフォーカスするものであり、その結果として、アドミニストレータが用いる言語を1つに集約し、さらなる生産的を目指すことになる。そして、さらに、システムの監視と管理を対象とした、膨大なデータへのアクセスと、実用的な洞察への転換を、実現していくものとなる。

The partner companies are working with industry standards bodies and associations to accelerate the development process, in anticipation of the broad adoption of Redfish.

ここでパートナーとなる企業は、Redfish の広範囲におよぶ採用を予測し、また、その作成プロセスを加速するために、業界標準のための団体や協会と協調して作業を進めている。

The specification will be submitted to the Distributed Management Task Force for consideration by the recently created Scalable Platform Management Forum, which has been chartered to publish a standard in this space. Once the specification is approved, it will be publicly available.

Redfish の仕様は、先日に立ち上げられた Scalable Platform Management Forum により、Distributed Management Task Force へと提出され、この分野におけるスタンダードを発行するための、骨格として検討されていく。 そこで、仕様が承認された後に、一般でも利用が可能なものとなる。

Read more:Synnex Australia adds HP Enterprise to portfolio

ーーーーー

現状でも、それぞれのデータセンターが工夫することで、それぞれのファシリティに適したマネージメント・システムが開発/運用されているはずです。 そして、RedFish が実現しようとしているのは、そのベースになる部分を標準化して、コストを下げようという試みなのだと思います。 ただ、いまの世の中のサーバー・ベンダーといっても、無印良品で市場を席巻している台湾の ODM たちを無視できません。 また、Facebook/Rackspace/Microsoft などによる Open Compute Project もあれば、Tencent/Alibaba/Baidu などによる Scorpio、そして、Google/IBM による OpenPower Foundation もあるという具合に、データセンターの効率化へ向けて活動している、オープン・ソースの存在も忘れてはなりません。たまたまですが、9/22 付で、Gartner が DCIM の Magic Quadrant を発表するほど、ここは、とてもホットな領域なのです。

ーーーーー

<関連>

Facebook と DCIM : オープンな議論を期待できるのか?
Facebook の DCIM : 独自のデータセンター管理システムを構築
Facebook が選んだ CA  の DCIM:どのように ハイパー・スケールを管理するのか?
Quanta と OCP : Server/Storage/Switch/Rack などがデビュー!

Facebook のゴージャスな DC を、15枚の写真で紹介しよう!

Posted in Data Center Trends, Facebook, Open Compute by Agile Cat on September 19, 2014

Take A Tour Through Facebook’s Gorgeous Data Centers
http://wp.me/pwo1E-7ST
Dave Smith − Sep. 5, 2014
http://www.businessinsider.com/15-photos-of-facebook-data-centers-2014-9

_ Business Insider

Facebook announced the Open Compute Project in 2011 as a way to openly share the designs for its data centers — "to spark a collaborative dialogue … [and] collectively develop the most efficient computing infrastructure possible."

Facebook がデータセンターのデザインを広く共有する方法として、Open Compute Project についてアナウンスしたのは 2011年のことだった。それにより、コラボレーションが活性化し、最も効率的なコンピューティング·インフラを、協調しながら開発していくという流れが生まれた。

Alan Brandt

Starting in 2009, three Facebook employees dedicated themselves to custom-designing servers, server racks, power supplies, UPS units, and battery backup systems for the company’s first data center in Prineville, Oregon.

2009年に 3人の Facebook 従業員が、 Prineville, Oregon における同社としては初めてのデータセンターのための、サーバー/サーバー・ラック/電源/UPS/バッテリ·バックアップといったシステム対して、カスタムなデザインをコントリビュートした。

By 2011, Facebook’s data center in Prineville used 38% less energy to do the same work as the company’s other data centers at the time, while costing 24% less.

そして、2011年の Prineville データセンターは、38% という消費電力の低減と、24% のコスト削減という、すばらしい結果を残した。

Since then, Facebook has improved on its designs, and last summer, opened another data center in Lulea, Sweden.

その後の Facebook は、そのデザインを改善し、また、昨年の夏には、Lulea, Sweden にも新しいデータセンターをオープンしている。

With the help of Facebook and photographer Alan Brandt, we compiled some photos to show off what Facebook’s data centers look like from the inside and outside. And these are some really gorgeous-looking facilities.

Facebook と、カメラマンである Alan Brandt の助けを借りて、Facebook データセンターの内側と外側を示す、いくつかの写真をまとめてみた。それらは、とてもゴージャスなファシリティであると思える。

↓ クリックで Facebook アルバムへ ↓

ーーーーー

ゴージャスと言っても、フカフカのソファーが置いてあるという意味ではなく、あの巨大なサービスを支えるサーバーやストレージに適したという話なのですが、そこで働くエンジニアにとっては、それこそがゴージャスなのだと思います。 Agile_Cat も、この Prineville DC には、一度 お邪魔したことがあるのですが、何から何まで、想像を絶する規模で構築されていたのが、とても強く印象に残っています。 たまたまですが、昨日の東京では、OCP Engineering Workshop 2014 が開催され、100人以上の人々が集まりました。 朝から夕方まで、ぎっちりと詰まった各セッションで、とても熱い議論が繰り返されていました。 これから、OCP Japan が考えていくことは、アジアという地域のビジネスに適した、データセンターのデザインを考えることに、集約されていくのだろうと思います。(この写真は、林雅之さんのブログからのものです)  

ーーーーー

<関連>

Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
Instagram が達成した史上最大のマイグレーション:200億枚のイメージを AWS から FB DC へ!
Facebook と Open Compute から、ついに Wedge という名の オープン・スイッチが発表された!
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?

Telehouse の New York IX が CoreSite と接続:北米最大のゲートウェイを実現

Posted in Data Center Trends, Open IX, Telecom by Agile Cat on September 11, 2014

Telehouse’s New York Internet Exchange Now Available Throughout CoreSite’s New York Market
http://wp.me/pwo1E-7Qv
September 04, 2014: 08:30 AM ET
http://money.cnn.com/news/newsfeeds/articles/marketwire/1142079.htm

Telehouse, the global leader for data centers, international Internet exchanges and managed IT services announces today that its New York Internet Exchange (NYIIX) is now available to CoreSite Realty Corporation (NYSE: COR), a leading provider of secure, reliable, high-performance data center solutions, via its "NY2" facility in Secaucus, NJ. Telehouse’s NYIIX, the largest public peering exchange in New York, is already available in CoreSite’s "NY1" facility in Manhattan. The added availability of NYIIX to NY2 provides access across CoreSite’s entire New York Market.

Telehouse は、データセンター/インターナショナル IX/マネージド IT サービスにおける、グローバル・リーダーとして認識される存在である。 そして今日(9/4)、同社の New York Internet Exchange (NYIIX) が、CoreSite Realty Corporation (NYSE: COR) と接続されたとアナウンスした。つまり、Secaucus, NJ にある CoreSite の “NY2” ファシリティを介した、安全性/信頼性/高性能を売りものにするデータセンター・ソリューションの、リーディング・プロバイダーとの新たなネットワークが確立したことになる。ただし、Telehouse の NYIIX は、すでに Manhattan にある CoreSite の “NY1” ファシリティと接続されており、New York における最大のパブリック・ピアリング・エクスチェンジとなっている。そして、NYIIX と NY2 の接続が追加されたことで、CoreSite の New York Market 全般に対するアクセスが提供されるようになる。

クリックで拡大 ⇒

Telehouse’s deployment at NY2 marks the company’s seventh NYIIX deployment in the New York City and Tri-State area. Members of NYIIX gain direct access to global mainstream ISPs and content providers, as well as niche regional ISPs and content providers with powerful network-to-network interconnections. The low latency of the exchange provides enhanced network performance and improved interconnectivity with other NYIIX members, offers route server options, and is IPV4, IPV6 and jumbo frame capable.

NY2 での Telehouse デプロイメントは、New York City と Tri-State エリアにおける、7回目のデプロイメントを記すことになる。NYIIX のメンバーたちは、グローバルにおける主流の ISP やコンテント・プロバイダーへの、ダイレクト・アクセスを達成する。それに加えて、絞りこまれた地域における ISP やコンテント・プロバイダーなどは、パワフルな Network-to-Network インターコネクションを手にする。このエクスチェンジが提供する低レイテンシにより、他の NYIIX メンバーとの間で、強化されたネットワーク性能と、進化した相互接続性が実現される。 そして、ルートサーバーのオプションや、IPV4/IPV6/Jumbo Frame なども提供される。

"The expansion of NYIIX into NY2 allows Telehouse to add another important peering location option for its members in one of the newest state of the art facilities in New Jersey," says Akio Sugeno, Vice President of Internet Engineering, Operations and Business Development at Telehouse. "NYIIX will continue to evolve and unite the fragmented New York peering market to further promote New York as the largest gateway to North America. Peering is an integral part of the Internet and we are fully committed to provide the best peering infrastructure to the Internet community.”

「 NY2 へ向けた NYIIX の拡大により、New Jersey における最先端のファシリティにおけるメンバーたちに、もう1つの重要なピアリング・ロケーションの選択肢を、Telehouse は追加できるようになった。NYIIX は継続して進化し、また、断片化された New York のピアリング・マーケットを統合することで、North America 最大のゲートウェイとしての New York を、さらに促進していく。ピアリングは、インターネットにとって不可欠なパートである。 そして、私たちは、インターネット・コミュニティに対して、最高のピアリング・インフラを提供するという試みを、フル・コミットしている」と、Telehouse の VP of Internet Engineering, Operations and Business Development である、Akio Sugeno は述べている。

CoreSite’s NY2 facility, which opened in December 2013, creates a scalable option for network, cloud and enterprises looking to expand at a more competitive total cost in the greater New York metro area, while optimizing performance with direct, low-latency access to regional points of interconnection. In addition, NY2 offers seamless operations with diverse network paths and latency below 0.3 ms to cloud providers deployed in CoreSite’s NY1 facility in Manhattan.

CoreSite の NY2 ファシリティは、2013年12月にオープンしている。そして、大規模な New York メトロ・エリア内において、最大の競争力をもたらすコストを前提に、その事業を拡張しようとするネットワーク/クラウド/エンタープライズのために、スケーラブルなオプションを構築し、また、相互接続の適切なポイントに低レイテンシでダイレクト接続することで、そのパフォーマンスを最適化してきた。さらに NY2 は、多様なネットワーク・パスを用いたシームレスなオペレーションを提供することで、Manhattan の CoreSite NY1 ファシリティにディプロイしているクラウド·プロバイダーたちに、0.3 ms 以下の低レイテンシをもたらしている。

"Since opening NY2 in Secaucus, New Jersey, we have continued to enhance the features and interconnectivity of that facility as well as in our Manhattan facility, NY1," comments Ben Green, Vice President of Sales, Network and Mobility at CoreSite. "Adding NYIIX peering services at NY2 gives our customers network dense connectivity with scalable data center solutions throughout the entire CoreSite New York market.”

「 Secaucus, New Jersey に NY2 をオープンしてからというもの、そのファシリティと、Manhattan NY1 のファシリティにおいて、機能と相互接続性を強化し続けている。NY2 に NYIIX ピアリング·サービスを追加することで、CoreSite New York マーケット全体をカバーするかたちで、私たちの顧客はスケーラブルなデータセンター・ソリューションを活用し、そのネットワーク接続における密度を高めていく 」と、CoreSite の VP of Sales, Network and Mobility である Ben Green はコメントしている。

For more information about CoreSite’s New York market, visit http://www.coresite.com/locations/new-york .

ーーーーー

Telehouse というと、ヨーロッパで強いというイメージがあるのですが、New York にもたくさんのデータセンターを持ってるのですね。 そして、今回のパートナーである CoreSite は、Northern Virginia で London Internet Exchange(LINX)を受け入れており、Open IX を推進する勢力と捉えられています。 そう考えると、文中にあるピアリングやネットワーク・パスといったキーワードに、いったい何が隠されているのだろうかとか、楽しい妄想が次から次へと浮かんできてしまいます。 世界の最先端で戦う Telehouse。 頑張って欲しいですね!

ーーーーー

<関連>

KDDI が 東京と大阪に構築する Telehouse DC は、超弩級の電力密度を誇る!
NTT Com の、マレーシア 第4データセンターがオープンした
ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Gartner が インドの Tata Communications を高く評価:決め手は途上国のサポート
Rackspace を CenturyLink が買収するというウワサを、Bloomberg がレポート
Cisco レポート 2014年版:モバイル・トラフィックの世界 No.1 は、日本の 1.87GB/月だ!

KDDI が 東京と大阪に構築する Telehouse DC は、超弩級の電力密度を誇る!

Posted in Asia, Data Center Trends, Telecom by Agile Cat on August 28, 2014

KDDI to Build New Telehouse Data Centers in Tokyo and Osaka
http://wp.me/pwo1E-7N3

By Marketwired  – August 27, 2014
http://www.sys-con.com/node/3162327

__ Market Wired

TELEHOUSE Invests in Expanding a Further 20MW of High Power Density Colocation Space in Japan

NEW YORK, NY — (Marketwired) — 08/27/14 — KDDI, the global telecommunications provider, announces today that it will invest $270 million (28 billion yen) investment ina the building of two new Telehouse data centers, "TELEHOUSE OSAKA 2," and "TELEHOUSE TOKYO Tama 3," scheduled to open in August 2015 and February 2016 respectively. These additional facilities will take the total amount of global TELEHOUSE data center space to approximately 4.0 million square feet, provided by 46 sites across 13 countries/territories and 24 major cities.

NEW YORK, NY — (Marketwired) — 08/27/14 — グローバル・テレコム・プロバイダである KDDI からの今日の発表によると、同社は $270 million (28 billion yen) を投資し、TELEHOUSE OSAKA2 および TELEHOUSE TOKYO Tama 3という、2つのデータセンターを構築し、それぞれを 2015年8月と 2016年2月にオープンすることになる。 これらのファシリティが追加されることで、13カ国/24主要都市の 46サイトに展開される、TELEHOUSE データセンターの総床面積は、400万平方フィート(約37万平米)に拡大される。

Both Osaka and Tokyo facilities will offer high-density colocation services enabling the hosting of heavy load IT infrastructure. The data centers will meet the growing demand for housing private enterprise clouds, along with public cloud service providers, online and media content companies. The facilities are designed to Tier 3+ data center standards in redundancy and uptime, and will be insusceptible to earthquakes by a long-period absorption structure, reflecting the high quality Global TELEHOUSE specifications. In addition, KDDI can provide a combined solution by providing direct access to the KDDI global network along with the data center.

Osaka と Tokyo のファシリティは、いずれも高負荷 IT インフラのホスティングを可能にする、高密度コロケーション・サービスを提供する。これらのデータセンターは、プライベート・エンタープライズ・クラウドにおける需要の高まりに対応するものとなるが、パブリック・クラウド・サービス・プロバイダーや、オンライン/メディア・コンテンツ事業にも提供される。 また、冗長性とアップタイムに関しては、高品質な Global TELEHOUSE スペックを反映した、Tier 3+ のデータセンター・スタンダードで設計され、また、地震に関しては長周期での吸収構造を用いることで、そのに影響を受けにくいデザインとなっている。それに加えて、KDDI Global Network へのダイレクト・アクセスを、これらのデータセンターに提供することで、KDDI は複合的なソリューションを実現していくとされる。

クリックでスペック・シート ⇒

Telehouse Osaka 2, located in the center of Osaka city, will offer 700 racks of tenancy space with up to 30kVA (designed) per rack. The technical and operations room will be situated above second floor avoiding the risk of potential flooding. Osaka 2 can be used as a disaster recovery and back-up site for the Tokyo data centers.

Telehouse Osaka 2 は、大阪市の中心部に位置し、ラックあたり 30kVA(designed)に対応する 700台のラックにより、テナント・スペースの構成する。テクニカルおよびオペレーションのための施設は、2階以上に配置され、水害による危険性を回避するものとなる。また、この Osaka 2 は、東京のデータセンター群のための、DR(disaster recovery)および Back-Up のサイトとしても用いられる。

Telehouse Tokyo Tama 3 will be located on the existing Tama data center campus, approximately 18 miles from the Tokyo city center in a highly guarded surrounding. The five story building will offer 1,300 racks of tenancy space with up to 42kVA (designed) power supply to racks, the highest(*1) in Japan and 5 times(*2) industry average, with a designed PUE 1.31 making it one of the most energy efficient data centers in Japan.

Telehouse Tokyo Tama 3 は、東京の中心部から 18マイルほど離れた、きわめてセキュアな環境の中で運用されている、Tama Data Center Campus 内に配置される。そして、5階建てのビルディングに収納される、ラックあたり 42kVA(designed)に対応する 1300台のラックにより、テナント・スペースの構成する。この電力密度は、日本で最高(*1)のものであり、また、業界平均の 5倍(*2)に達するものとなる。そして、PUE 1.31 を実現する、日本で最もエネルギー効率の良いデータセンターの1つとなる。

The Telehouse data center expansion reflects the growing demand for data center space in Japan’s metros, and the ability of KDDI to accommodate leading multinationals expanding their portfolios in Japan. By securing its domestic market share in Japan, KDDI continues to be the leader in premium data center facilities.

この、Telehouse Data Center の拡大は、日本における都市型データセンター・スペースに対する、需要の高まりを反映したものとなる。 そして、日本でのポートフォリオを拡大する、主だった多国籍企業を収容する、KDDI のキャパシティを拡大していくことになる。 日本国内でのマーケット・シェアを確かなものにすることで、KDDI は高品質データセンター・ファシリティのリーダーであり続けようとしている。

To learn more about TELEHOUSE America and KDDI visit http://www.telehouse.com and http://global.kddi.com/.

(*1) As of Aug 26. Research from KDDI based on public information.

(*2) Compared with TELEHOUSE data centers in Japan.

ーーーーー

Over 30kVA というのは凄まじいですね :) そろそろ、15kVA の時代かなぁ・・・ などと考えていた Agile_Cat などは、その予想を完全に覆されてしまい、かなりビックリしています。 もちろん、すべてのラックに、それだけの電力を供給できるという話ではなく、特定のラックに対してという話のはずですが、それにしてもスゴイことです。 排熱は、どうするのでしょうね? 今度、チャンスがあったら教えてもらいたいですねぇ。

ーーーーー

<関連>

ダーク・ファイバーの存在が、クラウドに信頼性をもたらす – Verizon
Google: 始まりは 112台 の自作サーバー、そして 5000億円/四半期のデータセンター資産へ
シンガポール は データセンター 天国 : Equinix は語る
NTT は DC 事業者 RagingWire を買収し、国際戦略の要とするのか?
CloudStack がテレコムに好まれる理由 : 世界から集まった8名の証人たち

送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!

Posted in .Selected, Data Center Trends, Energy, Green IT by Agile Cat on August 21, 2014

A next-gen battery is coming soon to the power grid
http://wp.me/pwo1E-7LS

By Katie Fehrenbacher – Feb 4, 2014
http://gigaom.com/2014/02/04/the-power-grid-is-getting-a-lot-of-new-next-gen-battery-options-this-year/


_ Giga Om

Summary: Flow batteries are funky large batteries that use liquid tanks and pumps. There’s a new one being commercialized by a Silicon Valley startup.

Summary: フロー・バッテリーとは、液体のためのタンクやポンプを用いる、ちょっと型破りな大型のバッテリーのことである。そして、Silicon Valley のスタートアップにより商品化された、新しいプロダクトが登場した。

ーーーーー

2014 seems poised to be the year that next-generation battery technologies become more widely available for the power grid. On Tuesday a five-year-old venture capital-backed startup called Primus Power announced that it’s raised another round of $20 million in funding, which it will use to get its battery technology to its first utility and power customers this year.

2014年は、次世代バッテリー・テクノロジーが、送電網において広範囲に利用されるよう、準備を整える年になりそうだ。この火曜日(2/4)に、Primus Power( 5年間に渡りベンチャー・キャピタルの支援を受けてきた)というスタータップが、別のラウンドで $20 Million を調達したと発表した。そして、年内には、Utility and Power の顧客たちに、そのバッテリー・テクノロジーを提供できるようにするようだ。

Primus Power makes “flow batteries,” which store energy like the batteries in your laptop do, but which have the electrolyte (the substance that acts as the medium for the charging and discharging) separated out of the battery cell in liquid-filled tanks. The systems use a pump to move the liquid electrolyte over the electrode, which in turn stores energy.

Primus Power が作るフロー・バッテリーは、あなたのラップトップ PC に似たようなかたちで蓄電するが、その電解質(充放電のための媒体として作用する物質)は、液体で満たされたタンク内のバッテリー・セルから分離されている。つまり、このシステムはポンプを用いて、電極上に電解液を循環させることで蓄電していく。

The Primus Power shipping container, filled with flow batteries.

The benefit of this design is that flow batteries can be cheaper, can be more easily refillable, and can provide prolonged amounts of energy storage compared to traditional enclosed batteries. Primus Power’s flow batteries are supposed to be able to provide energy storage for over a period of four or five hours, while a lithium ion battery can provide energy storage for about an hour, Primus Power’s CEO Tom Stepien told me in an interview a couple years ago.

このデザインの利点として挙げられるのは、フロー・バッテリーが安価であり、電解液の充当が容易であり、また、従来からの封入型バッテリーと比べて、長時間にわたって電力を供給できる点にある。Primus Power のフロー・バッテリーは、4時間〜5時間にわたって放電できるようになっているが、リチウム・イオン電池の場合は、約1時間の放電が限界であると、Primus Power の CEO である Tom Stepien が、数年前のインタビューで語っていた

Primus Power sells an “EnergyPod,” (see above) which is basically a shipping container that’s filled with around a dozen flow batteries stacked on top of each other. Each EnergyPod has capacity to store 250 kW of energy for a cost of $500 per kWh. For large installations a utility can install multiple shipping containers and manage them with the computing and software that Primus Power also provides.

Primus Power が販売する EnergyPod は、輸送用コンテナをベースにしたものであり、その内部は、積み重ねられた十数基のフロー・バッテリーで満たされている。それぞれの EnergyPod は、250 kW を充電することが可能であり、そのコストは kWh あたり $500 となる。また、電力会社などが大規模な導入を行う際には、複数のコンテナをインストールすることが可能であり、Primus Power が提供するコンピューティングとソフトウェアにより、それらを管理できる。

The electrode sits at the top of the flow battery.

Power companies are looking to add energy storage technologies like batteries and flow batteries to the grid as a way to store energy generated by clean power sources like solar and wind, which only provide energy when the sun shines and wind blows. The idea is that a flow battery could store energy from, say, a wind turbine, when the wind is blowing extra hard, and the battery can release the extra energy over four or five hours as the wind dies down.

電力会社は、太陽光や風力といった、クリーンであっても生成が不安定なエネルギーを蓄積するための方式として、送電網にバッテリーやフロー・バッテリーなどの、エネルギー・ストレージ・テクノロジーを加えたいと考えている。この、フロー・バッテリーのアイデアにより、たとえば風力発電の場合なら、強風により余剰な電力が供給されるときに蓄電して、風が止んだらバッテリーから、4時間〜5時間ほどの放電が可能なるのだ。

While flow batteries have been on the market for awhile, Primus Power’s flow battery is supposed to be more efficient because it uses one tank, one flow loop, one pump, and no separator (many current ones on the market use two tanks and a separator). Primus’ electrode is also made of metal, compared to the felt or plastic electrodes of some competitors (so higher conductivity) and the electrolyte itself — that flows through the system — is zinc-based.

このところ、いくつかのフロー・バッテリーが市場に登場しているが、Primus Power のフロー・バッテリーは、タンク/フローループ/ポンプが1つずつで済み、また、セパレータが不要である(数多くのプロダクトが、市場で提供されているが、そのすべてが 2つのタンクを用い、セパレータを必要とする)。いくつかのコンペティタが、フェルトまたはプラスチック(もしくは、それ以上の導電率を持つ物質)の電極を用いているのとくらべて、Primus は金属製を用いている。また、そのシステムの全体を構成する電解質は、亜鉛ベースの材質となる。

An early version of Primus Power’s electrode.

Other startups that are building the next-generation of low cost batteries for the power grid include Ambri, Eos Energy, Aquion Energy and others. Several of these companies are looking to commercialize their technology this year. And it’s not just batteries that are emerging for energy storage and the power grid — startups like LightSail Energy and SustainX are working on reinventing compressed air energy storage.

その他にも、Ambri/Eos Energy/Aquion Energy などを含むスタートアップたちが、送電網用の低コスト次世代バッテリーを構築している。そして、そのうちの何社かは年内に、そのテクノロジーを商用化しようとしている。 ただし、こうした動きは、バッテリーだけにとどまらない。LightSail Energy や SustainX といったスタートアップは、圧縮空気によるエネルギー蓄積技術を改善することで、電力網のための電力ストレージに取り組んでいる。

Primus Power has raised a total of $35 million from investors including Kleiner Perkins, Chrysalix, DBL Investors and I2BF Global Ventures. The new round was led by South Africa-based resource developer Anglo American Platinum Limited. Primus has also received $20 million worth of grants from U.S. government agencies, like the Department of Energy.

Primus Power は、Kleiner Perkins/Chrysalix/DBL Investors/I2BF Global Ventures といった投資家たちから、合計で $35 Million の資金を調達している。今回のラウンドは、South Africa ベースの資源開発会社である Anglo American Platinum Limited が主催したものである。そして、ここでも Primus は、Department of Energy といったアメリカ政府機関から、$20 Million の助成金を得ている。

Primus Power is looking to use these latest funds to deliver their first EnergyPods to customers. Customers include a utility in Modesto, California, the Bonneville Power Administration in the Pacific Northwest, and a microgrid at the Marine Corps Air Station in Miramar, California. California could be home to many of these new power grid energy storage innovations, following the state’s decision to support a large amount of energy storage projects by 2020 in order to help the state meet its renewable energy mandate.

Primus Power は、それらの資金を用いて、最初の顧客たちに EnergyPods を供給しようとしている。そして、それらの顧客には、California の Modesto や、Pacific Northwest の Bonneville Power Administration といった電力会社や、California の Marine Corps Air Station におけるマイクログリッドなどが含まれる。California は、送電網のための、新たな電力ストレージ・テクノロジーの本拠地になれるかもしれない。それは、2020年までに再生可能エネルギーの活用を促進するという、州政府が決定した大量エネルギー・ストレージ・プロジェクトを、サポートするものでもある。

Related research

The fourth quarter of 2012 in clean tech – January 2013
The next generation of battery technology – October 2012
Cleantech third-quarter 2012 – October 2012

ーーーーー

今年の2月の記事であり、だいぶ時間が経ってしまいましたが、とても興味深い内容なので訳してみました。 日本でも、さくらインターネットなどによる 石狩超電導直流送電プロジェクトや、NTT Data による 高電圧直流給電(HVDC)テクノロジーといった、エネルギーとデータセンターの関係を再構築していこうという取り組みが進んでいます。 そして、この Primus Power の EnergyPods も、大がかりな蓄電は不可能という固定概念を、打ち破ろうとする試みとして捉えることが可能です。 まだまだ、時間はかかるでしょうが、それぞれの領域でテクノロジーが磨かれていくことで、安全でクリーンなエネルギーにより、データセンターが効率よく動き続けるという、新しい時代にたどり着けると信じています。

ーーーーー

<関連>

Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えるべき
Data Centers の調査 : データセンターの効率を多角的に考える
SoftBank と Bloom Energy が提携 : 最新の燃料電池が日本にやってくる!
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!
OCP データセンターと、高温多湿気候との関係について

%d bloggers like this: