Agile Cat — in the cloud

Cloud の調査:データセンターの電力消費量は、どのように推移していくのか?

Posted in Data Center Trends, Green IT, On Monday by on August 16, 2016
Cloud Computing: Data Centers Designed for Hyperscale Have Potential for Dramatic Energy Savings
Dick Weisinger – August 8th, 2016
_ formtek
In 2014 data centers in the United States used 70 billion kWH about 1.8 percent of all energy consumption and enough to power about 6.4 million homes peryear, according to a report from Lawrence Berkeley National Labs (LBNL).  Data centers have seen huge increases in power consumption over the last fifteen years.  Most notable is the dot-com period from 2000-2005 when power consumption surged by 90 percent.
Lawrence Berkeley National Labs (LBNL) のレポートによると、2014年の米国におけるデータセンターは 700億kWh を消費している。それは、全米のエネルギーの 1.8% に達し、また、640万世帯の消費量に相当するものとなる。この 15年間において、データセンターの消費電力は大幅に増加している。最も注目すべきは、2000年〜2005年のドットコム時代であり、この間には 90% も消費電力が急増している。
Gauguin_1Based on projected growth and current data center energy usage, between now and 2020, power consumption will continue to grow annually about four percent per year.  But the report suggests that instead data centers should adopt more energy efficient policies.  For example, the report finds that by shifting to ‘hyperscale operators’ that data center energy consumption would actually drop by as much as 45 percent by 2020.
現時点のデータセンターでのエネルギー使用量に基づき、いまから 2020年までの間の電力消費量は、年間で 4% ずつ上昇するとされる。しかし、このレポートは、よりエネルギー効率の高いポリシーが、データセンターで採用されると示唆している。たとえば、ハイパースケールな事業者へ向けたシフトが生じることで、データセンターにおける 2020年のエネルギー消費量が、2020年には 45% も削減されると、このレポートは指摘している。
Hyperscale is the practice of data centers for deploying massive numbers of virtual servers using generic off-the-shelf computing equipment.  The approach tries to maximize the usage of hardware resources and reduces physical space, cooling and power requirements.  Cloud Computing vendors are best positioned to deploy hyperscale technologies.
The LBNL report found that “the potential for data center services, especially from a global perspective, is still in a fairly nascent stage, and future demand could continue to increase after our current strategies to improve energy efficiency have been maximized. Understanding if and when this transition may occur and the ways in which data centers can minimize their costs and environmental impacts under such a scenario is an important direction for future research.”
LBNL レポートは、「グローバルな視点から見ると、データセンター・サービスにおける可能性は、かなり初期の段階に留まっている。そして、エネルギー効率を最大限に改善するという、現時点のストラテジーが広まった後にも、データセンターは増加し続けるだろう。理解すべきは、このようなシナリオが、将来を見据える上で、きわめて重要な方向性を示していることだ。それにより、データセンターにおけるコストが削減され、また、環境への影響を最小限に抑えられるという、次世代データセンターへの移行が実現される」と指摘している
On Monday文中に示される、2020年までのデータセンター電力消費量ですが、年間で 4% の伸びというのは、随分と抑えられた値のように思えます。そして、参照元である LBNL のポストを見ると、2010年〜2020年のサーバー台数増加数は 40% だと予測されています。こちらが、10年間でのハードウェア数の推移だとすると、それも少ない値となります。つまり、物理サーバーの台数が抑制され、しかも、個々の物理サーバーの処理能力および、低電力化が大幅に向上していることが、このレポートの背景にあるのだと思えます。これも、クラウド化による恩恵なのですが、もっと、もっと、スマートなデータセンターが増えてくると良いですね。_AC Stamp
Cloud の調査: 2016年 Q1 のパブリック・クラウドは、記録破りの成長を達成したようだ!
IoT の調査: 製造業が期待する IIoT と、その市場規模について
Shadow IT の調査: シャドウ IT アプリが、この2年間で 30倍にも増大している
Serverless Architecture の調査: 利便性においてクラウドがオープンソースを上回る?
Data Security の調査: 政府が要求する情報開示と、暗号化の関係とは?

Comments Off on Cloud の調査:データセンターの電力消費量は、どのように推移していくのか?

ギガ 蓄電池 のマーケット: 2015年の 0.2GW から 2025年の 12.7GW へと、グローバル容量が急成長する!

Posted in Data Center Trends, Energy, Green IT, Strategy by on October 23, 2015
Global new installed energy storage systems for renewable energy integration power capacity expected to reach 12.7GW in 2025, says firm
Alex Wolfgram – October 16, 2015
_ Digi Times
Variable renewable energy, or renewable energy sources that are non-dispatchable due to a fluctuating nature, like wind power and solar photovoltaics (PV), continues to proliferate, creating challenges to the electrical grid, which was designed using a centralized model with predictable power flows.
Wind FirmWikipedia
As these challenges increase, so does the market for energy storage systems (ESSs) designed specifically to facilitate the integration of renewable energy generation. According to a new report from Navigant Research, new installed energy storage systems for renewable energy integration (ESRI) power capacity is expected to grow from 196.2MW in 2015 to 12.7GW in 2025.
しかし、こうした施策が課題を増やすにつれて、既存の送電網に対して再生可能エネルギーを容易に統合するための、新たにデザインされた ESS (Energy Storage Systems) の市場が活性化していく。 Navigant Research の最新レポートによると、再生可能エネルギー統合のために、新たにインストールされるエネルギー・ストレージ・システム ESRI (Energy Storage Systems for Renewable Energy Integration) の容量は、2015年の 196.2MW から 2025年の 12.7GW へと、大きく成長していくと予測される。
“It’s expected that the compensation schemes for variable generation will drive the market for ESRI, and markets with compensation structures that favor dispatchability and self-consumption of wind and solar electricity will lead the market,” said Anissa Dehamna, principal research analyst with Navigant Research. “With few exceptions, islands and isolated grids are expected to lead the market in near-term due to higher renewables penetration and little to no interconnections with neighboring grid systems to balance instability.”
Navigant Research の Chief Research Analyst である Anissa Dehamna は、「 再生可能エネルギーの変動幅を、補完するためのスキームが、ESRI 市場をドライブしていくと予測される。そして、こうした補完スキームが達成されることで、送電網への接続と現地での消費が具体化され、風力や太陽光による発電が、市場をリードすることになるだろう。さらに、いくつかの例外を挙げるなら、離島および孤立地域での送電網では、再生可能エネルギーの普及が早まり、近い将来において市場をリードすると期待される。そして、近隣の送電網との相互接続が不足している状況などにおいても、きわめて短期間で、適正なバランスを取り得るだろう」と述べている。
One of the primary drivers of the grid-tied ESS market is the decreasing cost of advanced batteries, according to the report. While system costs are still one of the biggest barriers to the industry’s growth, declining prices and a flood of new systems integrators are opening up new use cases and geographic markets.
ESS 市場と送電網をつないでいく、大きな推進力の1つとして、最先端蓄電池のコスト削減が挙げられると、このレポートは述べている。この産業が成長するためには、最大の障壁である費用対効果という課題をクリアしなければならないが、コストの低減とシステム・インテグレータの台頭により、新たなユース・ケースと、地域ごとのソリューションが、広く知れ渡るようになってきた。
greenit_55風が吹くなら、お日様が照るなら、それを使えば良いでしょうというのが、Agile Cat の個人的な感覚なのですが、風は止まるし、雨の日もあるので、まだまだ先の話だろうと思っていました。 でも、人の頭は使いよう、人類の叡智は無限ということが、なんとなく証明されつつありますね。 2014年 2月に「送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!」という抄訳をポストしましたが、その後も順調に伸びているようで、とても安心しました。 人々の生活に欠かせない電力を、中央集権的にコントロールすると、どうしても第二の税になっていきます。 三国志の関羽も、水滸伝の盧俊義も、第二の税である「塩」と戦う義賊だったわけですが、いまの世の中、そんな物騒なことを考えなくても、蓄電池のテクノロジーを磨いていけば、電力は空気のようなものになると、このポストは伝えているのでしょう。 _AC Stamp
Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えるべき
Data Centers の調査 : データセンターの効率を多角的に考える
SoftBank と Bloom Energy が提携 : 最新の燃料電池が日本にやってくる!
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!
OCP データセンターと、高温多湿気候との関係について

Comments Off on ギガ 蓄電池 のマーケット: 2015年の 0.2GW から 2025年の 12.7GW へと、グローバル容量が急成長する!

Google:オランダの 62MW 風力発電プロジェクトと大型契約を締結!

Posted in Data Center Trends, Energy, Google, Green IT by Agile Cat on November 27, 2014

Google buys up Dutch wind energy for data center
By AP | 18 Nov, 2014

_Economic Times

AMSTERDAM: Google says it will buy the entire output of an 18-turbine, 62-megawatt Dutch wind energy project in the Netherlands to supply power to a major data center it is building.

AMSTERDAM: Google だが、いま構築している大規模データセンターに電力を供給するために、Netherlands において 18 タービン/62 MW を実現する、Dutch wind energy の全出力を購入する予定だと発言している。

Company officials said Tuesday that Google wants both price certainty and to ensure that the 600 million euro ($750 million) data center in Eemshaven, Netherlands – due to be completed in 2017 – will be supplied by renewable energy from the start.

この火曜日 (11/18) の、同社によるオフィシャルな説明によると、2017年の完成を目指して Eemshaven, Netherlands に建設中のデータセンターに対して、600 million euro ($750 million) というコストが注ぎ込まれ、また、最初から再生可能エネルギーが供給されることが明らかになった。

The wind project is also still under construction at nearby Delfzijl, with turbines both onshore and off the coast in the North Sea.

また、北海に面した Delfzijl 付近の海岸線と沖合にタービンを配置する、この風力発電プロジェクトも、開発が進められているところだ。

Google did not disclose terms but said it has signed a 10-year contract. The U.S. search giant has inked similar deals in Finland and Sweden in the past two years.

この契約は、10年間に渡るものになるようだが、その点について、Google は明らかにしていない。 なお、これまでの 2年間に、この米検索大手は Finland と Sweden で、今回のような契約を結んでいる。


この 9月に、「Google が オランダの海岸線に作る、120MW の Eemshaven データセンターとは?」という抄訳をポストしましたが、ちょっと供給電力の計算が合いませんね🙂 今回の記事のほうが、オフィシャルな発言ということなので、正しいはずだと思います。それにしても、素晴らしいかたちで、自己完結しているプロジェクトであり、ヨーロッパにおける Google 大規模データセンターの、デザイン・パターンも完成という感じがします。 続報が楽しみですね!



IDC : 2017年を境にDC 数は減少にいたるが、全体的なキャパは成長し続ける
Google は言う:クラウドの料金も ムーアの法則に従うべきだ!
Google データセンターの世界:とても豪華な写真集
Facebook のゴージャスな DC を、15枚の写真で紹介しよう!
Data Center の調査:大変革を促す4つの要因とは? – Gartner

Comments Off on Google:オランダの 62MW 風力発電プロジェクトと大型契約を締結!

Dell/HP/Intel/Emerson が構築する Redfish は、IPMI 以来のスタンダードになり得るのか?

Posted in Data Center Trends, DCIM, Energy, Green IT by Agile Cat on September 26, 2014

Dell, HP, Intel and Emerson partner to develop new industry standard: Redfish
Brian Karlovsky | Sept. 9, 2014

Dell, HP, Intel and Emerson are set to develop a new industry standard to increase the productivity of system administrators through improved datacentre management, analysis and security.

Dell/Emerson/HP/Intel が、データセンターにおける管理/分析/セキュリティの改善を通じて、システム・アドミニストレータの生産性を向上させるべく、新しい業界スタンダードを作成しようとしている。

The new specification, Redfish, is still under development and will be one of the most comprehensive since the Intelligent Platform Management Interface (IPMI) was first launched in 1998, according to a statement.

この、新しい仕様である Redfish は、現時点において作成中である。 そして、このパートナーシップのステートメントによると、1998年に立ち上げられた Intelligent Platform Management Interface (IPMI) 以来の、最も包括的なものになるという。

_  space

_  space

Redfish uses a modern network interface style, allowing access to data using even simple, script-based programming methods. It will be designed to improve scalability and expand data access and analysis, help lower costs, and further enable feature-rich remote management while ensuring a secure solution that protects investment.

Redfish では、きわめてシンプルなスクリプトベースのプログラミング・メソッドにより、データへのアクセスを実現するために、最新のネットワーク·インターフェース·スタイルが用いられる。そのデザインは、スケーラビリティを向上させ、データに関するアクセスと分析を強化し、また、コストの削減を促進しながら、さらにリッチなリモート・マネージメントを実現するものであるが、投資を保護するセキュアなソリューションも約束される。

According to a company statement, the group collaborating on Redfish development is focused on ensuring the specification enhances interoperability across multiple server environments and significantly simplifies management, allowing administrators to speak one language and be more productive. It will also enable access to massive amounts of information and the ability to translate the data into actionable insights for system monitoring and management.

この団体のステートメントによると、Radfish 仕様の作成におけるグループとしての協調は、マルチ・サーバー環境をカバーするインターオペラビリティと、大幅に簡素化された管理形態にフォーカスするものであり、その結果として、アドミニストレータが用いる言語を1つに集約し、さらなる生産的を目指すことになる。そして、さらに、システムの監視と管理を対象とした、膨大なデータへのアクセスと、実用的な洞察への転換を、実現していくものとなる。

The partner companies are working with industry standards bodies and associations to accelerate the development process, in anticipation of the broad adoption of Redfish.

ここでパートナーとなる企業は、Redfish の広範囲におよぶ採用を予測し、また、その作成プロセスを加速するために、業界標準のための団体や協会と協調して作業を進めている。

The specification will be submitted to the Distributed Management Task Force for consideration by the recently created Scalable Platform Management Forum, which has been chartered to publish a standard in this space. Once the specification is approved, it will be publicly available.

Redfish の仕様は、先日に立ち上げられた Scalable Platform Management Forum により、Distributed Management Task Force へと提出され、この分野におけるスタンダードを発行するための、骨格として検討されていく。 そこで、仕様が承認された後に、一般でも利用が可能なものとなる。

Read more:Synnex Australia adds HP Enterprise to portfolio


現状でも、それぞれのデータセンターが工夫することで、それぞれのファシリティに適したマネージメント・システムが開発/運用されているはずです。 そして、RedFish が実現しようとしているのは、そのベースになる部分を標準化して、コストを下げようという試みなのだと思います。 ただ、いまの世の中のサーバー・ベンダーといっても、無印良品で市場を席巻している台湾の ODM たちを無視できません。 また、Facebook/Rackspace/Microsoft などによる Open Compute Project もあれば、Tencent/Alibaba/Baidu などによる Scorpio、そして、Google/IBM による OpenPower Foundation もあるという具合に、データセンターの効率化へ向けて活動している、オープン・ソースの存在も忘れてはなりません。たまたまですが、9/22 付で、Gartner が DCIM の Magic Quadrant を発表するほど、ここは、とてもホットな領域なのです。



Facebook と DCIM : オープンな議論を期待できるのか?
Facebook の DCIM : 独自のデータセンター管理システムを構築
Facebook が選んだ CA  の DCIM:どのように ハイパー・スケールを管理するのか?
Quanta と OCP : Server/Storage/Switch/Rack などがデビュー!

Comments Off on Dell/HP/Intel/Emerson が構築する Redfish は、IPMI 以来のスタンダードになり得るのか?

送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!

Posted in .Selected, Data Center Trends, Energy, Green IT by Agile Cat on August 21, 2014

A next-gen battery is coming soon to the power grid

By Katie Fehrenbacher – Feb 4, 2014

_ Giga Om

Summary: Flow batteries are funky large batteries that use liquid tanks and pumps. There’s a new one being commercialized by a Silicon Valley startup.

Summary: フロー・バッテリーとは、液体のためのタンクやポンプを用いる、ちょっと型破りな大型のバッテリーのことである。そして、Silicon Valley のスタートアップにより商品化された、新しいプロダクトが登場した。


2014 seems poised to be the year that next-generation battery technologies become more widely available for the power grid. On Tuesday a five-year-old venture capital-backed startup called Primus Power announced that it’s raised another round of $20 million in funding, which it will use to get its battery technology to its first utility and power customers this year.

2014年は、次世代バッテリー・テクノロジーが、送電網において広範囲に利用されるよう、準備を整える年になりそうだ。この火曜日(2/4)に、Primus Power( 5年間に渡りベンチャー・キャピタルの支援を受けてきた)というスタータップが、別のラウンドで $20 Million を調達したと発表した。そして、年内には、Utility and Power の顧客たちに、そのバッテリー・テクノロジーを提供できるようにするようだ。

Primus Power makes “flow batteries,” which store energy like the batteries in your laptop do, but which have the electrolyte (the substance that acts as the medium for the charging and discharging) separated out of the battery cell in liquid-filled tanks. The systems use a pump to move the liquid electrolyte over the electrode, which in turn stores energy.

Primus Power が作るフロー・バッテリーは、あなたのラップトップ PC に似たようなかたちで蓄電するが、その電解質(充放電のための媒体として作用する物質)は、液体で満たされたタンク内のバッテリー・セルから分離されている。つまり、このシステムはポンプを用いて、電極上に電解液を循環させることで蓄電していく。

The Primus Power shipping container, filled with flow batteries.

The benefit of this design is that flow batteries can be cheaper, can be more easily refillable, and can provide prolonged amounts of energy storage compared to traditional enclosed batteries. Primus Power’s flow batteries are supposed to be able to provide energy storage for over a period of four or five hours, while a lithium ion battery can provide energy storage for about an hour, Primus Power’s CEO Tom Stepien told me in an interview a couple years ago.

このデザインの利点として挙げられるのは、フロー・バッテリーが安価であり、電解液の充当が容易であり、また、従来からの封入型バッテリーと比べて、長時間にわたって電力を供給できる点にある。Primus Power のフロー・バッテリーは、4時間〜5時間にわたって放電できるようになっているが、リチウム・イオン電池の場合は、約1時間の放電が限界であると、Primus Power の CEO である Tom Stepien が、数年前のインタビューで語っていた

Primus Power sells an “EnergyPod,” (see above) which is basically a shipping container that’s filled with around a dozen flow batteries stacked on top of each other. Each EnergyPod has capacity to store 250 kW of energy for a cost of $500 per kWh. For large installations a utility can install multiple shipping containers and manage them with the computing and software that Primus Power also provides.

Primus Power が販売する EnergyPod は、輸送用コンテナをベースにしたものであり、その内部は、積み重ねられた十数基のフロー・バッテリーで満たされている。それぞれの EnergyPod は、250 kW を充電することが可能であり、そのコストは kWh あたり $500 となる。また、電力会社などが大規模な導入を行う際には、複数のコンテナをインストールすることが可能であり、Primus Power が提供するコンピューティングとソフトウェアにより、それらを管理できる。

The electrode sits at the top of the flow battery.

Power companies are looking to add energy storage technologies like batteries and flow batteries to the grid as a way to store energy generated by clean power sources like solar and wind, which only provide energy when the sun shines and wind blows. The idea is that a flow battery could store energy from, say, a wind turbine, when the wind is blowing extra hard, and the battery can release the extra energy over four or five hours as the wind dies down.


While flow batteries have been on the market for awhile, Primus Power’s flow battery is supposed to be more efficient because it uses one tank, one flow loop, one pump, and no separator (many current ones on the market use two tanks and a separator). Primus’ electrode is also made of metal, compared to the felt or plastic electrodes of some competitors (so higher conductivity) and the electrolyte itself — that flows through the system — is zinc-based.

このところ、いくつかのフロー・バッテリーが市場に登場しているが、Primus Power のフロー・バッテリーは、タンク/フローループ/ポンプが1つずつで済み、また、セパレータが不要である(数多くのプロダクトが、市場で提供されているが、そのすべてが 2つのタンクを用い、セパレータを必要とする)。いくつかのコンペティタが、フェルトまたはプラスチック(もしくは、それ以上の導電率を持つ物質)の電極を用いているのとくらべて、Primus は金属製を用いている。また、そのシステムの全体を構成する電解質は、亜鉛ベースの材質となる。

An early version of Primus Power’s electrode.

Other startups that are building the next-generation of low cost batteries for the power grid include Ambri, Eos Energy, Aquion Energy and others. Several of these companies are looking to commercialize their technology this year. And it’s not just batteries that are emerging for energy storage and the power grid — startups like LightSail Energy and SustainX are working on reinventing compressed air energy storage.

その他にも、Ambri/Eos Energy/Aquion Energy などを含むスタートアップたちが、送電網用の低コスト次世代バッテリーを構築している。そして、そのうちの何社かは年内に、そのテクノロジーを商用化しようとしている。 ただし、こうした動きは、バッテリーだけにとどまらない。LightSail Energy や SustainX といったスタートアップは、圧縮空気によるエネルギー蓄積技術を改善することで、電力網のための電力ストレージに取り組んでいる。

Primus Power has raised a total of $35 million from investors including Kleiner Perkins, Chrysalix, DBL Investors and I2BF Global Ventures. The new round was led by South Africa-based resource developer Anglo American Platinum Limited. Primus has also received $20 million worth of grants from U.S. government agencies, like the Department of Energy.

Primus Power は、Kleiner Perkins/Chrysalix/DBL Investors/I2BF Global Ventures といった投資家たちから、合計で $35 Million の資金を調達している。今回のラウンドは、South Africa ベースの資源開発会社である Anglo American Platinum Limited が主催したものである。そして、ここでも Primus は、Department of Energy といったアメリカ政府機関から、$20 Million の助成金を得ている。

Primus Power is looking to use these latest funds to deliver their first EnergyPods to customers. Customers include a utility in Modesto, California, the Bonneville Power Administration in the Pacific Northwest, and a microgrid at the Marine Corps Air Station in Miramar, California. California could be home to many of these new power grid energy storage innovations, following the state’s decision to support a large amount of energy storage projects by 2020 in order to help the state meet its renewable energy mandate.

Primus Power は、それらの資金を用いて、最初の顧客たちに EnergyPods を供給しようとしている。そして、それらの顧客には、California の Modesto や、Pacific Northwest の Bonneville Power Administration といった電力会社や、California の Marine Corps Air Station におけるマイクログリッドなどが含まれる。California は、送電網のための、新たな電力ストレージ・テクノロジーの本拠地になれるかもしれない。それは、2020年までに再生可能エネルギーの活用を促進するという、州政府が決定した大量エネルギー・ストレージ・プロジェクトを、サポートするものでもある。

Related research

The fourth quarter of 2012 in clean tech – January 2013
The next generation of battery technology – October 2012
Cleantech third-quarter 2012 – October 2012


今年の2月の記事であり、だいぶ時間が経ってしまいましたが、とても興味深い内容なので訳してみました。 日本でも、さくらインターネットなどによる 石狩超電導直流送電プロジェクトや、NTT Data による 高電圧直流給電(HVDC)テクノロジーといった、エネルギーとデータセンターの関係を再構築していこうという取り組みが進んでいます。 そして、この Primus Power の EnergyPods も、大がかりな蓄電は不可能という固定概念を、打ち破ろうとする試みとして捉えることが可能です。 まだまだ、時間はかかるでしょうが、それぞれの領域でテクノロジーが磨かれていくことで、安全でクリーンなエネルギーにより、データセンターが効率よく動き続けるという、新しい時代にたどり着けると信じています。



Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えるべき
Data Centers の調査 : データセンターの効率を多角的に考える
SoftBank と Bloom Energy が提携 : 最新の燃料電池が日本にやってくる!
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!
OCP データセンターと、高温多湿気候との関係について

Comments Off on 送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!

Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えなければならない

Posted in Data Center Trends, Energy, Green IT, On Monday by Agile Cat on April 14, 2014

Green Data Centers: As Data Centers Multiple so do Attempts to Make the Operations Green
By Dick Weisinger – April 3, 2014

_ formtek

Data centers are changing.  Increased popularity of cloud computing and increased data volumes have led to the expansion of existing data centers and the building of new ones.  A report by UBT Tech and InformationWeek found that 60 percent of IT decision makers worry that the capacity of their data centers are close to be overwhelmed and rate the state of their facilities as being ”fair, serious or urgent.”

データセンターが変化している。クラウド・コンピューティングの人気と、増大するデータ量が、これまでのデータセンターに拡大を要求し、また、新たなデータセンター構築を生み出している。UBT Tech and InformationWeek からのレポートによると、IT 意思決定者の 60% が、自身のデータセンター・キャパシティについて心配し、そのファシリティが「きわめて深刻かつ切迫」している状況にあると見ているようだ。

Data Centers rank as one of the largest consumers of energy.  An NSA data center located in Bluffdale Utah, for example, consumes 65 megawatts of energy monthly at a cost of $1 million per month, which is enough to power 65,000 homes with electricity.  Increasingly there has been a focus on how to make data centers more energy efficient, to make them more ‘green’.

データセンターは、大量の電力を消費する事業者として、あまり嬉しくないランキングに入っている。たとえば、Utah の Bluffdale にある NSA のデータセンターは、毎月 65 mW の電力を消費し、$1 Million を支払っているが、それは 65,000戸の住宅分に相当する。したがって、データセンターにおけるエネルギー効率を改善し、より GREEN にしていこうという力が働いているのだ。

Eric Woods, research director at Navigant Research, said that ”there is not a single technology or design model that makes a data center green.  In fact, the green data center is connected to the broader transformation that data centers are undergoing — a transformation that encompasses technical innovation, operational improvements, new design principles, changes to the relationship between IT and business, and changes in the data center supply chain.”

Navigant Research の Research Director である Eric Woods は、「 データセンターを GREEN にするための、単一のテクノロジーやデザイン・モデルというものは存在しない。実際のところ、GREEN データセンターは、それを支える幅広い形質転換と連動している。具体的には、テクノロジーにおける革新や、オペレーションの改善、新たなデザインの原理、IT とビジネスの接点、そして、データセンター・サプライチェーンにおける変化などが、そこには含まれる」と、述べている

The green data center market is growing quickly.  In 2014, the size of the Green Data Center market will be $22.76 billion, but this is expected to increase 27 percent annually through 2019 when the market size will reach $75.89 billion, according to a report by MarketsandMarkets.  The APAC region is expected to see the highest pace of growth, but North America will continue to hold the largest market share.

GREEN データセンターのマーケットは、急速に成長している。 Marketsand Markets のレポートによると、2014年の GREEN センター市場の規模は $22.76 Billion にまで拡大するが、その後も 27% の成長率を維持し、2019年には $75.89 Billion にいたると予想される。とりわけ、APAC 地域の成長が著しいとされるが、North America が最大のマーケット・シェアを保持するだろう。


4月3日の TechCrunch が、「グリーンピース、Amazonを叩き、Apple、Google、Facebookを賞賛」というタイトルで、Greenpeace のレポートを紹介していましたが、環境負荷という問題もデータセンターにはのしかかっているようです。 Agile_Cat でも、Greenpeace の初回のレポートの対訳をポストしていますが、Facebook の Oregon データセンター・プロジェクトが進んでいる頃のものだったと記憶しています。 そのときの Greenpeace の言い分は、石炭燃料を主体とする電力会社から、電気を買うなというものですが、そう言われても無理があるというのが、当時の Facebook の回答でした。 しかし、それがキッカケとなり、Facebook はデータセンターの情報を開示するようになりました。そして、Lulea では 100% 水力発電のデータセンターを実現するなど、グリーン化に取り組んだことで、このような評価を受けたのだと思います。 また、Google は、大西洋岸の風力発電や、Virginia での地熱発電を推進するなど、再生エネルギーへの取り組みが評価されたのだと思います。このポストの文中にもあるように、なかなか難しい問題があるようですが、徐々にでも、グリーン化が進むと良いですね。__AC Stamp 2



Storage の調査: Long-Term Low-Cost のコールド・ストレージは 5 PB へと向かうのか?
Cloud の調査:エンタープライズがクラウドを導入する5つの大きな理由
IoT の調査:テック・ベンダーたちは、一般顧客へのアプローチを模索する
Hybrid File の調査:エンタープライズに必須なのは、パブリックとオンプレミスのブレンドだ!
Web Programming の調査:Google の Dart は Javascript をリプレースできるのか?

Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!

Posted in .Selected, Data Center Trends, Facebook, Green IT, Open Compute by Agile Cat on March 12, 2014

Facebook: Open Compute Has Saved Us $1.2 Billion

January 28th, 2014 – By: Rich Miller

_ DC Knowledge

SAN JOSE, Calif. – Over the last three years, Facebook has saved more than $1.2 billion by using Open Compute designs to streamline its data centers and servers, the company said today. Those massive gains savings are the result of hundreds of small improvements in design, architecture and process, write large across hundreds of thousands of servers.

Facebook は直近の 3年間において、データセンターやサーバーを効率化する Open Compute のデザインを使用しすることで、$1.2 Billion 以上のコスト削減を達成したと述べている。この、膨大なコストの削減は、デザイン/アーキテクチャ/プロセスにおける小さな改善の集大成であり、それらは、無数のサーバー群をまたぐかたちで顕在化している。

Facebook CEO Mark Zuckerberg, at left, discusses the company’s infrastructure with Tim O’Reilly of O’Reilly Media yesterday at the Open Compute Summit in San Jose, Calif. (Photo: Colleen Miller)

The savings go beyond the cost of hardware and data centers, Facebook CEO Mark Zuckerberg told 3,300 attendees at the Open Compute Summit in San Jose. The innovations from Open Compute Project have saved Facebook enough energy to power 40,000 homes, and brought carbon savings equivalent to taking 50,000 cars off the road, Zuckerberg said.

ハードウェアやデータセンターにおける、こうしたコストの削減は、Facebook の収益性を超えたところでも意味を持つと、San Jose で開催された Open Compute Summmit で、CEO である Mark Zuckerberg は 3300人の参加者に語っている。Open Compute Project から始まったイノベーションは、Facebook が消費するエネルギーから、40,000 戸分の電力を削減している。それは、路上を走行する自動車で換算すると、5万台分の二酸化酸素を削減することになると、Zuckerberg は述べている。

The innovations created by Open Compute provide a major opportunity for other companies to achieve similar gains, he said “People are spending so much on infrastructure,” said Zuckerberg, who discussed Facebook’s initiatives with technology thought leader Tim O’Reilly of O’Reilly Media. “It creates a pretty broad incentive for people to participate.”

Open Compute がもたらすイノベーションにより、それぞれの企業が同様のメリットを得るという、チャンスが提供される。この Facebook の取り組みについて Zuckerberg は、「 人々はインフラストラクチャに、あまりにも多くの労力を費やしている。 そして、Open Compute は、そこに参加する人々に対して、きわめて広範囲におよぶインセンティブをもたらす」と、O’Reilly Media の思想的リーダーである Tim O’Reilly に説明していた。

An Open Legacy for Facebook

The focus on open hardware was a logical outgrowth of the way the company views the world, according to Zuckerberg. “Facebook has always been a systems company,” he said. “A lot of the early work we did was with open systems and open source.”

Zuckerberg によると、オープンなハードウェアにフォーカスすることは、世界を見据える Facebook にとって論理的な帰結となる。そして、彼は、「 Facebook は、常にシステムの企業であり続けてきた。そして、私たちが取り組んできた、その初期における成果の多くは、オープンなシステムとなり、オープンソースとなってきた」と続けている。

The $1.2 billion in savings serves as a validation of Facebook’s decision to customize its own data center infrastructure and build its own servers and storage. These refinements were first implemented in the company’s data center in Prineville, Oregon and have since been used in subsequent server farms Facebook has built in North Carolina, Sweden and Iowa.

$1.2 Billion というコスト削減は、データセンターのインフラを独自にカスタマイズし、また、独自のサーバーとストレージを構築していくという、Facebook の判断における妥当性を確認するものでもある。これらの洗練された発想は、最初に Prineville, Oregon のデータセンターに実装された後に、North Carolina および Sweden、Iowa の Facebook サーバファームに適用されてきた。

“As you make these marginal gains, they compound dramatically over time,” said Jay Parikh, Vice President of Infrastructure Engineering at Facebook.”We’re actually saving a ton of money.”

[ こうした、小さなメリットの積み上げを、長期間に渡って継続していくことで、劇的な融合が生じる。現実に、私たちは、膨大なコスト削減を達成した 」と、Facebook の Vice President of Infrastructure Engineering である Jay Parikh は述べている。

The designs for Facebook’s servers, storage units and data centers have since been contributed to the Open Compute Project, the non-profit community organization driving the open hardware movement.

Facebook の サーバとストレージのユニットおよび、データセンターのデザインは、オープンなハードウェアのムーブメントを促進する、非営利コミュニティである Open Compute Project に、ずっとコントリビュートされ続けてきた。

This happened, Parikh said, because Facebook was willing to set aside the conventional ways that servers and data centers were built, and try something new. The Open Compute Project can extend these savings to other companies, he said.

Facebook は、サーバーやデータセンターを構築する、従来からの方法と平行して、新しいことに挑戦したいと望んできたので、こうした変化が生じた、と Parikh は発言している。そして、Open Compute Project により、その他の企業でも、同じようなコストの削減が達成される。

“You really should be looking at OCP,” said Parikh. “You could be saving a lot of money.

「 ぜひ、OCP に注目してほしい。そうすれば、膨大なコストの削減が可能になる」と、Parikh は述べている。


Open Compute Summit, 2014
Open Compute Reports Progress on Open Network Switch
Facebook Adapts Open Compute for Colo Space
Facebook Brings Open Compute into its Colo Space
Closer Look: Facebook’s Open Compute Servers


TAG indexそれにしても、$1.2 Billion というのは大きいですね。 100円で換算しても 1200億円ですから、メガ・データセンターの構築費に相当するくらいのコストが浮いたことになります。ちょうど 3年前に、Oregon のデータセンターがオープンしていますから、年間で 400億円くらいの計算になりますね。 そして、その後も Noth Carolina と、Sweden、Iowa が構築されているのですから、この数値は年々拡大していくことになります。自然環境へ影響を考えても、素晴らしいことです! 今月は、台北に OCP サーティフィケーション・センターがオープンしました。 アジアにも、このような事例がほしいですね。image



Facebook が選んだ CA の DCIM:どのように ハイパー・スケールを管理するのか?
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?
Open Compute Project : ついに Microsoft も参加を表明した!
2013年 : Open Compute Project の マトメ
2013年 : 世界の データセンターの マトメ

Google の洋上データセンター : SF に続いて 東海岸にも出現!

Posted in Data Center Trends, Energy, Google, Green IT by Agile Cat on October 29, 2013

Google could have a floating data center in Maine, too

Daniel Terdiman – October 25, 2013


The tech giant is likely building a floating data center in San Francisco Bay. But a very similar project rolled into the harbor in Portland, Maine, earlier this month. The two are definitely connected.

この、ハイテク界の巨人は、San Francisco Bay に浮かぶデータセンターを構築しているようだ。そして、きわめて似かよったプロジェクトが、Portland, Maine の港でも展開されていることが、今月の初めに分かった。この 2つのプロジェクトは、絶対に連携していると思う。


(Credit:John Ewing/Portland Press Herald)

This structure, seen on a barge in Portland, Maine, could well be a Google floating data center. A very similar structure is under construction in San Francisco Bay.
Portland, Maine で確認された、このハシケの上に設置された構造物だが、Google の洋上データセンターである可能性が高い。 そして、きわめて似かよった構造物が、San Francisco Bay では建設中となっている。


As CNET reported Friday, it looks very much like Google has been building a floating data center made from shipping containers on a barge in the middle of San Francisco Bay. But it may not be the only one of its kind.

CNET が、金曜日にレポートしたように、Google は San Francisco Bay の真ん中で、洋上のハシケの上に輸送用のコンテナを設置し、それをデータセンターに仕立てあげようとしている。 そして、Portland の構築物も、それに似ているように思える。 つまり、このプロジェクトは、二ヶ所で並行して推進されているのだろう。

Google has not responded to multiple requests for comment. But the project in San Francisco Bay appears likely to be the manifestation of a 2009 patent for a "water-based data center," and would likely leverage the fact that wave energy can provide cheap and plentiful power.

Google には何度か問い合わせているが、何のコメントも戻っていない。しかし、この San Francisco Bay におけるプロジェクトは、同社が 2009年に取得した特許である "water-based data center" を、具現化したものとも思える。つまり、波のエネルギーを活用する、安価で豊富な電力が供給されることになるのだろう。

Now it seems as though Google may well have built a sister version of the project, and, according to the Portland Press Herald, it recently showed up in the harbor in Portland, Maine.

そして、いま、Google は、このプロジェクトにおける姉妹版を構築したかのように見える。Portland Press Herald によると、その構築物が、最近になって Portland, Maine 港に現れたとのことである。

In both cases, the structures on both barges appear to be made from a number of shipping containers, many of which have small slats for windows, and each has one container that slants down to ground level at a 45-degree angle.

双方のケースとも、ハシケの上の構造物は複数の搬送用コンテナで構成されるが、その多くは芯棒により固定されている。 そして、1つのコンテナが、下向き 45度の角度で設置されている。


(Credit:Tom Bell/Portland Press Herald)

The registration on the Portland barge is "BAL 0011," which ties it to the barge in San Francisco Bay, which has the registration number "BAL 0010." Both are owned by By and Large, LLC.
なお、Portland のハシケに記された登録番号は "BAL 0011" であり、San Francisco Bay の "BAL0010" と連番になっている。 そして、その所有者は、どちらも By and Large, LLC である。


If that wasn’t enough to establish that the two are related, it’s also clear that both were built on barges owned by the same company. The one in San Francisco Bay was built on top of a barge with the registration "BAL 0010," while the one in Portland harbor is on a barge with the registration "BAL 0011." According to online documents, both are owned by By and Large, LLC. That company, which has a miniscule online profile, is also the current tenant in Hangar 3, an immense building alongside the pier where the San Francisco Bay project is under construction.

それだけでは、2つのプロジェクトの関連性を確証できないかもしれないが、少なくも、同じ会社が所有するハシケの上に構築されていることは明らかだ。 San Francisco Bay の構造物は、"BAL 0010" という登録番号のハシケに構築され、また、Portland のハシケは "BAL 0011" である。 そして、オンラインで検索したところ、どちらも By and Large, LLC に所有されていることが分かった。同社のオンライン・プロファイルは、あまり詳しいことを書いていないが、現時点で Hangar 3 のテナントになっているようだ。 そして、この埠頭で、巨大な構造物を建造するという、San Francisco Bay プロジェクトが進められているのだ。


(Credit:James Martin/CNET)

The structure that is likely a Google floating data center, on a barge in San Francisco Bay.
San Francisco Bay のハシケ上で構築される、Google の洋上データセンターと思われる構造物。


Now the question is, if there’s one in San Francisco Bay and another in Maine, are there more out there? If you’ve seen a barge with a large structure that looks like the ones pictured here, please let me know.

ここで疑問が生じてくるのだが、1つが San Francisco Bay にあり、もう1つが Maine にあるのなら、どこかに、もっとあるのではないだろうか?この記事で示されている、巨大な構造体を乗せたハシケを見かけたら、ぜひ、教えて欲しい。


image128文中でも紹介されているように、Google の洋上データセンターに関しては、だいぶ前に特許が申請されたとき、ちょっとした騒ぎになっていました。そして、その後ですが、『 Google がフィンランドに作った海水冷 DC とは? 』という抄訳でご紹介したように、すでに Google は、海水冷のデータセンターを運用しているので、さまざまなデータを所有しているはずです。あの、45度に傾いたコンテナは、熱交換器に吸い込まれてしまった魚などを、捨てるためにあるのでしょうか🙂 それにしても、デカイですね。 いったい、何本のコンテナを束ねているのでしょうかね?



Google のインフラ投資額 : これまでに $21B をデータセンターに!
Google が 5分ほど落ちた : そしたら 5千万円ほど 吹っ飛んだらしい
46MW を湖水で冷却し PUE 1.1 を実現する、アルプスの巨大データセンター
Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
コ・ロケーションのための、データセンター Hotsopt を探せ!


Comments Off on Google の洋上データセンター : SF に続いて 東海岸にも出現!

%d bloggers like this: