Agile Cat — in the cloud

IoT の調査: 賢いメーターとグリッドで、米国は電力ビジネスを再構築していくのか?

Posted in Energy, IoT, On Monday by agilecat.cloud on September 26, 2016
Internet of Things (IoT): Rapid Deployment of New and Existing Replacement Sensors Drive Smart Meter Market
By Dick Weisinger
September 23rd, 2016
http://formtek.com/blog/internet-of-things-iot-rapid-deployment-of-new-and-existing-replacement-sensors-drive-smart-meter-market/
_ formtek
Deployment of smart meters is growing quickly.  Hundreds of millions of them have been deployed globally.  In the US there are more than 60 million smart metersEstimates are that more than one billion smart meter data points are logged every day.  The meter data management and analytics market is expected to total  from 2015 to 2024, according to a study by Navigant Research.  IDC estimates that by 2025 that 152,000 devices will connect to the network every minute.
 
グローバルにおけるスマート・メーターの展開が、億単位で急速に進んでいる。そして US では、現時点で 6000万個以上のスマート・メーターが展開されている。さらに言うなら、スマート・メーターから得られる、一日あたりの詳細なデータは、10億に達したと予測されている。Navigant Research の調査によると、2024年に2015年にかけて、全体的なメーター・データの管理/分析マーケットは、$10.3 billion に届いていると推測されている。また IDC は、2025年の時点において、毎分ごとに 152,000 個のデバイスがネットワークに接続されると推定している。
 
chagall_1Stuart Ravens, principal analyst, energy and sustainability technology with Ovum, said that “at the moment we could have a meter reading every year. With smart meters, if they read every half hour, that’s 17,500 meter readings a year. When we talk about ‘exponential’ growth of data, that is really exponential. And that is just considering the billing side.”
 
電力の継続的な供給について研究する、Ovum の主席アナリストである Stuart Ravens は、電力を継続的に供給していくテクノロジーとして、私たちは、この数年でスマート・メーターを手にすることになった。それらのメーターから、さまざまなデータを30分ずつ抽出すると、年間で 17,500個のメーターにしか対応できないことになる。この種のデータは、まさに指数関数的に成長に成長している。したがって、いまは課金という面だけを検討していることになる」と述べている
 
The increase in smart meter spending is being driven from two factors:
 
スマート・メーターを促進する要素として、以下の 2つの項目があげられる。
 
  • Sensor replacement of sensors deployed a decade previous with more advanced and capable technology.
  • The use of distributed energy resources (DER) on the edge of the utility grid.
 
  • この 10年におけるセンサーの置き換えにより、以前と比べて先進的なテクノロジーが利用できるようになった。
  • 送電網のエッジにおいて、Distributed Energy Resources (DER) が利用できるようになった。
 
Lauren Callaway, research analyst with Navigant Research , said that “there is a growing emphasis on converging data from external sources for the purpose of more advanced, predictive analytics. This has supported developments in MDA (Model Driven Architecture) technologies that have the capability of dealing with differently structured forms of data, generating prescriptive and predictive insights.”
 
Navigate Research で調査と分析に携わる Lauren Callaway は、「より高度な予測分析のために、外部のデータ・ソースを集約するという手法が、大きく成長している。そこで用いられるのは、MDA (Model Driven Architecture) というテクノロジーである。それにより、規範的な予測と洞察のためのデータを、複数のデータ・フォーマットから集約することが可能となっている」と述べている。
 
ーーーーー
On Mondayいまの日本は、もんじゅの廃炉で大騒ぎですが、米国ではスマート・メーターを活用する、スマート・グリッドの議論が進んでいるようですね。少数の大規模発電施設で、大量の電力を生成するという発想から、多種多様な発電敷設を、消費に応じて効率よく接続していく方向へと、すでに論点がシフトしているようにも思えます。たとえば、Bloom Energy のようなオンサイト発電を用いて、交通網や医療機関などのクリティカルな分野をカバーしながら、送電網を賢くしていくという流れのほうが、未来があると思えるのですが、日本はどうするのでしょうかね? _AC Stamp
ーーーーー
<関連>
 
File Sharing の調査: クラウド・ファイル共有は、エンタープライズの安全性を満たさない
Mobile and IoT の調査: IoT センサー/デバイスの数は、2018年にはモバイル追い越す
IoT の調査:すでに主流のテクノロジーになったことを示す、いくつかの指標を挙げてみる
SaaS の調査: このマーケットの売上は、$12 B から、2024年の $50 B に成長していく
SaaS の調査:スタートアップによる業務アプリへと、マーケットの趨勢が変化している
 

Comments Off on IoT の調査: 賢いメーターとグリッドで、米国は電力ビジネスを再構築していくのか?

Cloud の調査:データセンターの電力消費量は、どのように推移していくのか?

Posted in Data Center Trends, Green IT, On Monday by agilecat.cloud on August 16, 2016
Cloud Computing: Data Centers Designed for Hyperscale Have Potential for Dramatic Energy Savings
Dick Weisinger – August 8th, 2016
http://formtek.com/blog/cloud-computing-data-centers-designed-for-hyperscale-have-potential-for-dramatic-energy-savings/
 
_ formtek
In 2014 data centers in the United States used 70 billion kWH about 1.8 percent of all energy consumption and enough to power about 6.4 million homes peryear, according to a report from Lawrence Berkeley National Labs (LBNL).  Data centers have seen huge increases in power consumption over the last fifteen years.  Most notable is the dot-com period from 2000-2005 when power consumption surged by 90 percent.
 
Lawrence Berkeley National Labs (LBNL) のレポートによると、2014年の米国におけるデータセンターは 700億kWh を消費している。それは、全米のエネルギーの 1.8% に達し、また、640万世帯の消費量に相当するものとなる。この 15年間において、データセンターの消費電力は大幅に増加している。最も注目すべきは、2000年〜2005年のドットコム時代であり、この間には 90% も消費電力が急増している。
 
Gauguin_1Based on projected growth and current data center energy usage, between now and 2020, power consumption will continue to grow annually about four percent per year.  But the report suggests that instead data centers should adopt more energy efficient policies.  For example, the report finds that by shifting to ‘hyperscale operators’ that data center energy consumption would actually drop by as much as 45 percent by 2020.
 
現時点のデータセンターでのエネルギー使用量に基づき、いまから 2020年までの間の電力消費量は、年間で 4% ずつ上昇するとされる。しかし、このレポートは、よりエネルギー効率の高いポリシーが、データセンターで採用されると示唆している。たとえば、ハイパースケールな事業者へ向けたシフトが生じることで、データセンターにおける 2020年のエネルギー消費量が、2020年には 45% も削減されると、このレポートは指摘している。
 
Hyperscale is the practice of data centers for deploying massive numbers of virtual servers using generic off-the-shelf computing equipment.  The approach tries to maximize the usage of hardware resources and reduces physical space, cooling and power requirements.  Cloud Computing vendors are best positioned to deploy hyperscale technologies.
 
ここで言うハイパースケールとは、ノーブランドの汎用コンピューティング機器を用いて、大量の仮想サーバーをディプロイするという、データセンターにおける手法のことである。このアプローチは、ハードウェア・リソースを最大限に活用する一方で、物理的空間/冷却設備/電力要件を低減していくものとなる。その意味で、クラウド・コンピューティング・ベンダーたちは、最適なハイパースケール・テクノロジーを展開するポジションを得ている。
 
The LBNL report found that “the potential for data center services, especially from a global perspective, is still in a fairly nascent stage, and future demand could continue to increase after our current strategies to improve energy efficiency have been maximized. Understanding if and when this transition may occur and the ways in which data centers can minimize their costs and environmental impacts under such a scenario is an important direction for future research.”
 
LBNL レポートは、「グローバルな視点から見ると、データセンター・サービスにおける可能性は、かなり初期の段階に留まっている。そして、エネルギー効率を最大限に改善するという、現時点のストラテジーが広まった後にも、データセンターは増加し続けるだろう。理解すべきは、このようなシナリオが、将来を見据える上で、きわめて重要な方向性を示していることだ。それにより、データセンターにおけるコストが削減され、また、環境への影響を最小限に抑えられるという、次世代データセンターへの移行が実現される」と指摘している
 
ーーーーー
On Monday文中に示される、2020年までのデータセンター電力消費量ですが、年間で 4% の伸びというのは、随分と抑えられた値のように思えます。そして、参照元である LBNL のポストを見ると、2010年〜2020年のサーバー台数増加数は 40% だと予測されています。こちらが、10年間でのハードウェア数の推移だとすると、それも少ない値となります。つまり、物理サーバーの台数が抑制され、しかも、個々の物理サーバーの処理能力および、低電力化が大幅に向上していることが、このレポートの背景にあるのだと思えます。これも、クラウド化による恩恵なのですが、もっと、もっと、スマートなデータセンターが増えてくると良いですね。_AC Stamp
ーーーーー
<関連>
Cloud の調査: 2016年 Q1 のパブリック・クラウドは、記録破りの成長を達成したようだ!
IoT の調査: 製造業が期待する IIoT と、その市場規模について
Shadow IT の調査: シャドウ IT アプリが、この2年間で 30倍にも増大している
Serverless Architecture の調査: 利便性においてクラウドがオープンソースを上回る?
Data Security の調査: 政府が要求する情報開示と、暗号化の関係とは?
 

Comments Off on Cloud の調査:データセンターの電力消費量は、どのように推移していくのか?

ギガ 蓄電池 のマーケット: 2015年の 0.2GW から 2025年の 12.7GW へと、グローバル容量が急成長する!

Posted in Data Center Trends, Energy, Green IT, Strategy by agilecat.cloud on October 23, 2015
Global new installed energy storage systems for renewable energy integration power capacity expected to reach 12.7GW in 2025, says firm
Alex Wolfgram – October 16, 2015
http://www.digitimes.com/news/a20151015PR204.html
 
_ Digi Times
Variable renewable energy, or renewable energy sources that are non-dispatchable due to a fluctuating nature, like wind power and solar photovoltaics (PV), continues to proliferate, creating challenges to the electrical grid, which was designed using a centralized model with predictable power flows.
 
風力発電や太陽光発電(PV)のような再生可能エネルギーは、その変動性のために、頼りがいのある存在としてみなされていない。そのため、予測可能なパワー・フローと、センタライズされたモデルで設計された送電網への、取り組みが繰り返され、また、増殖し続けている。
 
Wind FirmWikipedia
 
As these challenges increase, so does the market for energy storage systems (ESSs) designed specifically to facilitate the integration of renewable energy generation. According to a new report from Navigant Research, new installed energy storage systems for renewable energy integration (ESRI) power capacity is expected to grow from 196.2MW in 2015 to 12.7GW in 2025.
 
しかし、こうした施策が課題を増やすにつれて、既存の送電網に対して再生可能エネルギーを容易に統合するための、新たにデザインされた ESS (Energy Storage Systems) の市場が活性化していく。 Navigant Research の最新レポートによると、再生可能エネルギー統合のために、新たにインストールされるエネルギー・ストレージ・システム ESRI (Energy Storage Systems for Renewable Energy Integration) の容量は、2015年の 196.2MW から 2025年の 12.7GW へと、大きく成長していくと予測される。
 
“It’s expected that the compensation schemes for variable generation will drive the market for ESRI, and markets with compensation structures that favor dispatchability and self-consumption of wind and solar electricity will lead the market,” said Anissa Dehamna, principal research analyst with Navigant Research. “With few exceptions, islands and isolated grids are expected to lead the market in near-term due to higher renewables penetration and little to no interconnections with neighboring grid systems to balance instability.”
 
Navigant Research の Chief Research Analyst である Anissa Dehamna は、「 再生可能エネルギーの変動幅を、補完するためのスキームが、ESRI 市場をドライブしていくと予測される。そして、こうした補完スキームが達成されることで、送電網への接続と現地での消費が具体化され、風力や太陽光による発電が、市場をリードすることになるだろう。さらに、いくつかの例外を挙げるなら、離島および孤立地域での送電網では、再生可能エネルギーの普及が早まり、近い将来において市場をリードすると期待される。そして、近隣の送電網との相互接続が不足している状況などにおいても、きわめて短期間で、適正なバランスを取り得るだろう」と述べている。
 
One of the primary drivers of the grid-tied ESS market is the decreasing cost of advanced batteries, according to the report. While system costs are still one of the biggest barriers to the industry’s growth, declining prices and a flood of new systems integrators are opening up new use cases and geographic markets.
 
ESS 市場と送電網をつないでいく、大きな推進力の1つとして、最先端蓄電池のコスト削減が挙げられると、このレポートは述べている。この産業が成長するためには、最大の障壁である費用対効果という課題をクリアしなければならないが、コストの低減とシステム・インテグレータの台頭により、新たなユース・ケースと、地域ごとのソリューションが、広く知れ渡るようになってきた。
 
ーーーーー
greenit_55風が吹くなら、お日様が照るなら、それを使えば良いでしょうというのが、Agile Cat の個人的な感覚なのですが、風は止まるし、雨の日もあるので、まだまだ先の話だろうと思っていました。 でも、人の頭は使いよう、人類の叡智は無限ということが、なんとなく証明されつつありますね。 2014年 2月に「送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!」という抄訳をポストしましたが、その後も順調に伸びているようで、とても安心しました。 人々の生活に欠かせない電力を、中央集権的にコントロールすると、どうしても第二の税になっていきます。 三国志の関羽も、水滸伝の盧俊義も、第二の税である「塩」と戦う義賊だったわけですが、いまの世の中、そんな物騒なことを考えなくても、蓄電池のテクノロジーを磨いていけば、電力は空気のようなものになると、このポストは伝えているのでしょう。 _AC Stamp
ーーーーー
<関連>
Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えるべき
Data Centers の調査 : データセンターの効率を多角的に考える
SoftBank と Bloom Energy が提携 : 最新の燃料電池が日本にやってくる!
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!
OCP データセンターと、高温多湿気候との関係について
 

Comments Off on ギガ 蓄電池 のマーケット: 2015年の 0.2GW から 2025年の 12.7GW へと、グローバル容量が急成長する!

Open Compute : Summit 2015:ついに Apple が正式参加!

Posted in .Selected, Apache, Data Center Trends, Facebook, Open Compute by agilecat.cloud on March 12, 2015
Apple Joins Facebook’s Hardware Design Community
Yevgeniy Sverdlik – March 10, 2015
http://www.datacenterknowledge.com/archives/2015/03/10/apple-joins-facebooks-hardware-design-community/
 
_ DC Knowledge
 
Apple has officially joined the Open Compute Project, the Facebook-led open source hardware and data center design initiative, after being involved in it quietly for some time.
 
Apple が Open Compute Project(OCP)に、 オフィシャルに参加することになった。 この Facebook が主導する Open Compute Project は、ハードウェアとデータセンターのオープンソース・デザインを推進するものだが、これまでにも Apple は、ときおり参加していたようだ。
 
OCP Aple JoinFrank Frankovsky kicking off OCP Summit 2015 in San Jose, CA. (Photo: Open Compute Project Twitter page)
 
While the company is known primarily for its consumer devices and iTunes, it also has a massive data center infrastructure that supports its online services. Companies that operate large data centers benefit from designing their own hardware, and OCP has become a beachhead for the community of vendors and end users that support this approach.
 
同社は、コンシューマなデバイス と iTunes の会社として知られているが、それらのオンラインサービスをサポートするための、大規模なデータセンター・インフラストラクチャも有している。OCP が要となり、そのアプローチをサポートする、ベンダーとエンドユーザーのコミュニティを推進している。そして、その結果として、各種の企業が、独自ハードウェアのデザインからメリットを得るかたちで、大規模なデータセンターを運用している。
 
Frank Frankovsy, chair and president of the OCP Foundation, announced the addition of Apple to the list of members during the opening keynote of the foundation’s annual summit in San Jose, California. “Apple has been involved in this project quietly for a long period of time,” he said. “They have excellent infrastructure engineering people.”
 
OCP Foundation の Chair and President である Frank Frankovsy は、San Jose, California で開催された同ファンデーションの年次ミット・キーノートで、メンバー・リストに Apple が追加されたと発表した。彼は、「 Apple は水面下で、このプロジェクトに長期間にわたり携わってきた。同社には、優れたインフラ・エンジニアたちがいる」と述べている。
 
Apple wasn’t the only new OCP member announced Tuesday. Others who joined include end users, such as Bank of America and CapitalOne, as well as vendors, such as HP, Cisco, Juniper, and Schneider Electric.
 
新しい OCP メンバーとして発表されたのは、Apple だけというわけではない。その他の新メンバーには、Bank of America と CapitalOne というユーザー企業が含まれ、また、HP/Cisco/Juniper/Schneider Electric といったベンダー企業も含まれる。
 
OCP members have been using the project to develop hardware designs based on open specs and designs that are open sourced through the project.
 
OCP のメンバーたちは、このプロジェクトを通じてオープンソース化されたスペックやデザインに基づき、ハードウェアを設計/開発している。 つまり、そこに、このプロジェクトが存在する意味がある。
 
For end users, the benefit is not only the ability to get custom hardware but also to have multiple vendors supply the same products, which ensures supply and brings down the price. For vendors, the community has been a way to get engaged with data center operators the size of Facebook, Microsoft (which joined last year), and now also Apple.
 
エンドユーザーにとって、カスタムなハードウェアを入手することだけに意味があるのではない。つまり、複数のベンダーが同じ製品を供給することで、その調達ラインが安定し、価格も引き下げられる。ベンダーにとっては、Facebook/Microsoft(昨年から)/Apple(今年から)といった規模のデータセンター運用者との、関係を構築するための場が提供される。
 
HP announced at the summit its first line of commodity servers for hyperscale data centers such end users operate. The new Cloudline servers are compliant with OCP.
 
たとえば HP は、エンドユーザーが運用する大規模データセンターにおける、最先端のコモディティ・サーバーを、今回のサミットで発表している。この、新しい Cloudline サーバーは、OCPに準拠している。
 
ーーーーー
open-computeApple にとって、OCP に参加するメリットは、計り知れないものとなるでしょう。 iPhone や Mac などで構成されるプロダクト・ラインと比べると、バックエンドのインフラが、少々 心もとない感じがしていましたが、このコミュニティを活用することで、飛躍的な改善が達成されるはずです。 その他では、Bank of America などの金融系企業の参加や、その他のベンダー系企業の参加が、とても興味深いです。 だいぶ以前の OCP サミットで、HP はステージにも立っていましたが、ようやく正式に参加したのだと推測します。 Cisco に関しては、昨秋にアナウンスがあったと思いますが、あらためてお披露目ということなのでしょう。_AC Stamp
ーーーーー
<関連>
Facebook のゴージャスな DC を、15枚の写真で紹介しよう!
Facebook 第四艦隊 Iowa DC が、ネットワークを刷新して出撃!
Facebook と OCP から、Wedge という名の オープン・スイッチが発表された!
Facebook は Open Compute のおかげで、3年で 1200億円も節約できた!
無印サーバー:Quanta は出荷量の 90% 以上:Wiwynn は前年比で 100% 増
 

Comments Off on Open Compute : Summit 2015:ついに Apple が正式参加!

送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!

Posted in .Selected, Data Center Trends, Energy, Green IT by Agile Cat on August 21, 2014

A next-gen battery is coming soon to the power grid
http://wp.me/pwo1E-7LS

By Katie Fehrenbacher – Feb 4, 2014
http://gigaom.com/2014/02/04/the-power-grid-is-getting-a-lot-of-new-next-gen-battery-options-this-year/


_ Giga Om

Summary: Flow batteries are funky large batteries that use liquid tanks and pumps. There’s a new one being commercialized by a Silicon Valley startup.

Summary: フロー・バッテリーとは、液体のためのタンクやポンプを用いる、ちょっと型破りな大型のバッテリーのことである。そして、Silicon Valley のスタートアップにより商品化された、新しいプロダクトが登場した。

ーーーーー

2014 seems poised to be the year that next-generation battery technologies become more widely available for the power grid. On Tuesday a five-year-old venture capital-backed startup called Primus Power announced that it’s raised another round of $20 million in funding, which it will use to get its battery technology to its first utility and power customers this year.

2014年は、次世代バッテリー・テクノロジーが、送電網において広範囲に利用されるよう、準備を整える年になりそうだ。この火曜日(2/4)に、Primus Power( 5年間に渡りベンチャー・キャピタルの支援を受けてきた)というスタータップが、別のラウンドで $20 Million を調達したと発表した。そして、年内には、Utility and Power の顧客たちに、そのバッテリー・テクノロジーを提供できるようにするようだ。

Primus Power makes “flow batteries,” which store energy like the batteries in your laptop do, but which have the electrolyte (the substance that acts as the medium for the charging and discharging) separated out of the battery cell in liquid-filled tanks. The systems use a pump to move the liquid electrolyte over the electrode, which in turn stores energy.

Primus Power が作るフロー・バッテリーは、あなたのラップトップ PC に似たようなかたちで蓄電するが、その電解質(充放電のための媒体として作用する物質)は、液体で満たされたタンク内のバッテリー・セルから分離されている。つまり、このシステムはポンプを用いて、電極上に電解液を循環させることで蓄電していく。

The Primus Power shipping container, filled with flow batteries.

The benefit of this design is that flow batteries can be cheaper, can be more easily refillable, and can provide prolonged amounts of energy storage compared to traditional enclosed batteries. Primus Power’s flow batteries are supposed to be able to provide energy storage for over a period of four or five hours, while a lithium ion battery can provide energy storage for about an hour, Primus Power’s CEO Tom Stepien told me in an interview a couple years ago.

このデザインの利点として挙げられるのは、フロー・バッテリーが安価であり、電解液の充当が容易であり、また、従来からの封入型バッテリーと比べて、長時間にわたって電力を供給できる点にある。Primus Power のフロー・バッテリーは、4時間〜5時間にわたって放電できるようになっているが、リチウム・イオン電池の場合は、約1時間の放電が限界であると、Primus Power の CEO である Tom Stepien が、数年前のインタビューで語っていた

Primus Power sells an “EnergyPod,” (see above) which is basically a shipping container that’s filled with around a dozen flow batteries stacked on top of each other. Each EnergyPod has capacity to store 250 kW of energy for a cost of $500 per kWh. For large installations a utility can install multiple shipping containers and manage them with the computing and software that Primus Power also provides.

Primus Power が販売する EnergyPod は、輸送用コンテナをベースにしたものであり、その内部は、積み重ねられた十数基のフロー・バッテリーで満たされている。それぞれの EnergyPod は、250 kW を充電することが可能であり、そのコストは kWh あたり $500 となる。また、電力会社などが大規模な導入を行う際には、複数のコンテナをインストールすることが可能であり、Primus Power が提供するコンピューティングとソフトウェアにより、それらを管理できる。

The electrode sits at the top of the flow battery.

Power companies are looking to add energy storage technologies like batteries and flow batteries to the grid as a way to store energy generated by clean power sources like solar and wind, which only provide energy when the sun shines and wind blows. The idea is that a flow battery could store energy from, say, a wind turbine, when the wind is blowing extra hard, and the battery can release the extra energy over four or five hours as the wind dies down.

電力会社は、太陽光や風力といった、クリーンであっても生成が不安定なエネルギーを蓄積するための方式として、送電網にバッテリーやフロー・バッテリーなどの、エネルギー・ストレージ・テクノロジーを加えたいと考えている。この、フロー・バッテリーのアイデアにより、たとえば風力発電の場合なら、強風により余剰な電力が供給されるときに蓄電して、風が止んだらバッテリーから、4時間〜5時間ほどの放電が可能なるのだ。

While flow batteries have been on the market for awhile, Primus Power’s flow battery is supposed to be more efficient because it uses one tank, one flow loop, one pump, and no separator (many current ones on the market use two tanks and a separator). Primus’ electrode is also made of metal, compared to the felt or plastic electrodes of some competitors (so higher conductivity) and the electrolyte itself — that flows through the system — is zinc-based.

このところ、いくつかのフロー・バッテリーが市場に登場しているが、Primus Power のフロー・バッテリーは、タンク/フローループ/ポンプが1つずつで済み、また、セパレータが不要である(数多くのプロダクトが、市場で提供されているが、そのすべてが 2つのタンクを用い、セパレータを必要とする)。いくつかのコンペティタが、フェルトまたはプラスチック(もしくは、それ以上の導電率を持つ物質)の電極を用いているのとくらべて、Primus は金属製を用いている。また、そのシステムの全体を構成する電解質は、亜鉛ベースの材質となる。

An early version of Primus Power’s electrode.

Other startups that are building the next-generation of low cost batteries for the power grid include Ambri, Eos Energy, Aquion Energy and others. Several of these companies are looking to commercialize their technology this year. And it’s not just batteries that are emerging for energy storage and the power grid — startups like LightSail Energy and SustainX are working on reinventing compressed air energy storage.

その他にも、Ambri/Eos Energy/Aquion Energy などを含むスタートアップたちが、送電網用の低コスト次世代バッテリーを構築している。そして、そのうちの何社かは年内に、そのテクノロジーを商用化しようとしている。 ただし、こうした動きは、バッテリーだけにとどまらない。LightSail Energy や SustainX といったスタートアップは、圧縮空気によるエネルギー蓄積技術を改善することで、電力網のための電力ストレージに取り組んでいる。

Primus Power has raised a total of $35 million from investors including Kleiner Perkins, Chrysalix, DBL Investors and I2BF Global Ventures. The new round was led by South Africa-based resource developer Anglo American Platinum Limited. Primus has also received $20 million worth of grants from U.S. government agencies, like the Department of Energy.

Primus Power は、Kleiner Perkins/Chrysalix/DBL Investors/I2BF Global Ventures といった投資家たちから、合計で $35 Million の資金を調達している。今回のラウンドは、South Africa ベースの資源開発会社である Anglo American Platinum Limited が主催したものである。そして、ここでも Primus は、Department of Energy といったアメリカ政府機関から、$20 Million の助成金を得ている。

Primus Power is looking to use these latest funds to deliver their first EnergyPods to customers. Customers include a utility in Modesto, California, the Bonneville Power Administration in the Pacific Northwest, and a microgrid at the Marine Corps Air Station in Miramar, California. California could be home to many of these new power grid energy storage innovations, following the state’s decision to support a large amount of energy storage projects by 2020 in order to help the state meet its renewable energy mandate.

Primus Power は、それらの資金を用いて、最初の顧客たちに EnergyPods を供給しようとしている。そして、それらの顧客には、California の Modesto や、Pacific Northwest の Bonneville Power Administration といった電力会社や、California の Marine Corps Air Station におけるマイクログリッドなどが含まれる。California は、送電網のための、新たな電力ストレージ・テクノロジーの本拠地になれるかもしれない。それは、2020年までに再生可能エネルギーの活用を促進するという、州政府が決定した大量エネルギー・ストレージ・プロジェクトを、サポートするものでもある。

Related research

The fourth quarter of 2012 in clean tech – January 2013
The next generation of battery technology – October 2012
Cleantech third-quarter 2012 – October 2012

ーーーーー

今年の2月の記事であり、だいぶ時間が経ってしまいましたが、とても興味深い内容なので訳してみました。 日本でも、さくらインターネットなどによる 石狩超電導直流送電プロジェクトや、NTT Data による 高電圧直流給電(HVDC)テクノロジーといった、エネルギーとデータセンターの関係を再構築していこうという取り組みが進んでいます。 そして、この Primus Power の EnergyPods も、大がかりな蓄電は不可能という固定概念を、打ち破ろうとする試みとして捉えることが可能です。 まだまだ、時間はかかるでしょうが、それぞれの領域でテクノロジーが磨かれていくことで、安全でクリーンなエネルギーにより、データセンターが効率よく動き続けるという、新しい時代にたどり着けると信じています。

ーーーーー

<関連>

Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えるべき
Data Centers の調査 : データセンターの効率を多角的に考える
SoftBank と Bloom Energy が提携 : 最新の燃料電池が日本にやってくる!
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!
OCP データセンターと、高温多湿気候との関係について

Comments Off on 送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!

Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えなければならない

Posted in Data Center Trends, Energy, Green IT, On Monday by Agile Cat on April 14, 2014

Green Data Centers: As Data Centers Multiple so do Attempts to Make the Operations Green
http://wp.me/pwo1E-7p9
By Dick Weisinger – April 3, 2014
http://formtek.com/blog/green-data-centers-as-data-centers-multiple-so-do-attempts-to-make-the-operations-green/

_ formtek

Data centers are changing.  Increased popularity of cloud computing and increased data volumes have led to the expansion of existing data centers and the building of new ones.  A report by UBT Tech and InformationWeek found that 60 percent of IT decision makers worry that the capacity of their data centers are close to be overwhelmed and rate the state of their facilities as being ”fair, serious or urgent.”

データセンターが変化している。クラウド・コンピューティングの人気と、増大するデータ量が、これまでのデータセンターに拡大を要求し、また、新たなデータセンター構築を生み出している。UBT Tech and InformationWeek からのレポートによると、IT 意思決定者の 60% が、自身のデータセンター・キャパシティについて心配し、そのファシリティが「きわめて深刻かつ切迫」している状況にあると見ているようだ。

Data Centers rank as one of the largest consumers of energy.  An NSA data center located in Bluffdale Utah, for example, consumes 65 megawatts of energy monthly at a cost of $1 million per month, which is enough to power 65,000 homes with electricity.  Increasingly there has been a focus on how to make data centers more energy efficient, to make them more ‘green’.

データセンターは、大量の電力を消費する事業者として、あまり嬉しくないランキングに入っている。たとえば、Utah の Bluffdale にある NSA のデータセンターは、毎月 65 mW の電力を消費し、$1 Million を支払っているが、それは 65,000戸の住宅分に相当する。したがって、データセンターにおけるエネルギー効率を改善し、より GREEN にしていこうという力が働いているのだ。

Eric Woods, research director at Navigant Research, said that ”there is not a single technology or design model that makes a data center green.  In fact, the green data center is connected to the broader transformation that data centers are undergoing — a transformation that encompasses technical innovation, operational improvements, new design principles, changes to the relationship between IT and business, and changes in the data center supply chain.”

Navigant Research の Research Director である Eric Woods は、「 データセンターを GREEN にするための、単一のテクノロジーやデザイン・モデルというものは存在しない。実際のところ、GREEN データセンターは、それを支える幅広い形質転換と連動している。具体的には、テクノロジーにおける革新や、オペレーションの改善、新たなデザインの原理、IT とビジネスの接点、そして、データセンター・サプライチェーンにおける変化などが、そこには含まれる」と、述べている

The green data center market is growing quickly.  In 2014, the size of the Green Data Center market will be $22.76 billion, but this is expected to increase 27 percent annually through 2019 when the market size will reach $75.89 billion, according to a report by MarketsandMarkets.  The APAC region is expected to see the highest pace of growth, but North America will continue to hold the largest market share.

GREEN データセンターのマーケットは、急速に成長している。 Marketsand Markets のレポートによると、2014年の GREEN センター市場の規模は $22.76 Billion にまで拡大するが、その後も 27% の成長率を維持し、2019年には $75.89 Billion にいたると予想される。とりわけ、APAC 地域の成長が著しいとされるが、North America が最大のマーケット・シェアを保持するだろう。

ーーーーー

4月3日の TechCrunch が、「グリーンピース、Amazonを叩き、Apple、Google、Facebookを賞賛」というタイトルで、Greenpeace のレポートを紹介していましたが、環境負荷という問題もデータセンターにはのしかかっているようです。 Agile_Cat でも、Greenpeace の初回のレポートの対訳をポストしていますが、Facebook の Oregon データセンター・プロジェクトが進んでいる頃のものだったと記憶しています。 そのときの Greenpeace の言い分は、石炭燃料を主体とする電力会社から、電気を買うなというものですが、そう言われても無理があるというのが、当時の Facebook の回答でした。 しかし、それがキッカケとなり、Facebook はデータセンターの情報を開示するようになりました。そして、Lulea では 100% 水力発電のデータセンターを実現するなど、グリーン化に取り組んだことで、このような評価を受けたのだと思います。 また、Google は、大西洋岸の風力発電や、Virginia での地熱発電を推進するなど、再生エネルギーへの取り組みが評価されたのだと思います。このポストの文中にもあるように、なかなか難しい問題があるようですが、徐々にでも、グリーン化が進むと良いですね。__AC Stamp 2

ーーーーー

<関連>

Storage の調査: Long-Term Low-Cost のコールド・ストレージは 5 PB へと向かうのか?
Cloud の調査:エンタープライズがクラウドを導入する5つの大きな理由
IoT の調査:テック・ベンダーたちは、一般顧客へのアプローチを模索する
Hybrid File の調査:エンタープライズに必須なのは、パブリックとオンプレミスのブレンドだ!
Web Programming の調査:Google の Dart は Javascript をリプレースできるのか?

Facebook の空母のようなデータセンター: 効率/温度/湿度 を Web モニタリングしてみよう!

Posted in .Chronicle, .Selected, Data Center Trends, Energy, Facebook, Open Compute by Agile Cat on April 25, 2013

Facebook throws down efficiency gauntlet with real-time data and open-source dashboards
http://wp.me/pwo1E-61o

By
Jordan Novet –   Apr. 18, 2013
http://gigaom.com/2013/04/18/facebook-heads-down-efficiency-gauntlet-with-real-time-data-and-open-source-dashboards/

_ Gigaom

image

クリックでモニターへ ⇒

Summary: Following on previous quarterly disclosures on energy and water efficiency, Facebook is unveiling dashboards showing its data centers’ near-real-time performance.

Summary:  Facebook は、これまでのエネルギーと水の効率に関する四半期レポートに続いて、対象となるデータセンターのパフォーマンスを、ほぼリアルタイムで示すダッシュボードを発表している。

ーーーーー

When I first visited Facebook’s data center in Prineville, Ore., in 2011, I felt privileged to spot some figures on the facility’s power-usage effectiveness (PUE) on a screen affixed to a wall. The PUE number, which gives a sense of how much of the energy gets consumed by computing gear, wasn’t exactly what some reporters wanted to know — total number of megawatts would have been better than PUE, and that sort of information came later — but it was a start toward transparency. Now, the PUE data won’t be such a big deal to catch a glimpse of anymore.

Prineville, Oreron の Facebook データセンターへ、初めて訪問したのは 2011年のことだった。そして、カベに貼り付けられたスクリーンに示される、このファシリティの PUE 値を読むという、特権をもらったと感じたものだ。この PUE 値は、コンピューティング・ギアにより、どの程度の電力が消費されるのかという感覚を与えるものであり、何人かのレポーターがが知りたいと思ったものほど正確ではなかったが(トータル・メガワットの方が PUE よりも適切であり、また、その情報は後に届けられた)、その内容の透過的に見るための試みであった。 そして、いまでは、このデータセンターの姿をキャッチする上で、PUE だけが重視される状況ではなくなった。

The social-networking giant is giving the general public access to near-real-time dashboards on PUE and another key measurement, water-usage effectiveness (WUE), alongside humidity and temperature data for its data centers in Prineville and in Forest City, N.C. Previously, the PUE and WUE figures were released quarterly. The new dashboards show data down to the minute, albeit with a two and a half hour lag. In the future, Facebook will also post a PUE and WUE dashboard for the data center it’s building in Luleå, Sweden.

このソーシャル·ネットワーキングの巨人は、同社データセンターの PUE と WUE(Water Usage Effectiveness)にアクセスするための、リアルタイム・ダッシュボードをパブリックに提供している。そして、Prineville と Forest City, N.C. における、湿度と気温のデータまで参照できるのだ。以前には、四半期ごとに、この PUEWUEの数値はリリースされていた。そして、新しいダッシュボードでは、2時間半のタイムラグがあるが、1分ごとにダウンロードされるデータが表示される。また、Luleå, Sweden に建設中データセンターにおける、PUE と WUE のダッシュボードも、Facebook は提供していくとポストしている。

The facilities are still under construction, and, as a result, the data in the two dashboards can have abnormalities, but it should become more stable over time. The company detailed its plans in a Thursday blog post on the Open Compute Project site.

これらのファシリティは、いまは工事中であり、この2つのダッシュボードを用いて異常なデータを検出しているが、時間をかけながら、より安定したものになるはずだ。同社は、Open Compute Project サイト の木曜日 (4/18) のブログ・ポストで、その計画を詳述している。

↓ クリックで拡大 ↓

Facebook’s Power Usage Efficiency (PUE) and Water Usage Efficiency (WUE) dashboard

Facebook’s Power Use Efficiency (PUE) and Water Use Efficiency (WUE) dashboard

To prod other companies operating data centers to share more up-to-date power- and water-usage data, Facebook will open-source the code for the dashboards. Similar data from other companies could make Facebook look good, as Facebook (along with Google) is on the leading edge when it comes to PUE. eBay, for its part, has released a dashboard showing PUE and WUE as well as other measurements, such as the number of checkout transactions per kilowatt-hour.

他の企業が運用するデータセンターにおける、電力と水の使用量に関する最新データも共有していくために、このダッシュボードのコードを、Facebook はオープン・ソースにするようだ。 PUE の話になると、他企業から提供されるデータにより、Facebook が(Google も)最先端にあるような結果となっている。しかし、その点において eBay も、PUE と WUE だけではなく、キロワット時あたりのチェックアウト·トランザクション数などの、他の測定値を示すダッシュボードをリリースしている。

Innovations in hardware and software at Facebook’s data centers make lower energy use possible. Whether Facebook will be able to squeeze even more computing power out of its energy and water consumption is an interesting question, and now that more current data is being shared, it’s worth asking what innovations will come in the future. If Yahoo, Microsoft and others follow suit, the pressure will be on for data centers across the board to become more transparent. Those efforts could help data center operators respond to notions that data centers waste energy.

Facebook データセンターにおける、ハードウェアとソフトウェアのイノベーションにより、より効率の良いエネルギー消費が可能になってきた。 Facebook が、その電力と水の消費から、さらなるコンピューティング・パワーを絞り出せるかどうかは、きわめて興味深い課題であるが、ライブなデータが共有されることで、将来におけるイノベーションが喚起されることは、大きな価値を持つだろう。もし、Yahoo や Microsoft が追随するなら、このデータセンター全体におよぶプレッシャーにより、さらなる透明性がもたらされるだろ。こうした努力の積み上げにより、データセンター事業者たちは、エネルギーを浪費しているという指摘に対して、適切に対応していけるようになるだろう。

Related research

ーーーーー

TAG indexこれほど、手放しで褒められる試みも、珍しいのではないかと思います。 単に効率の良いデータセンターを構築/運用するだけではなく、その実体に透明性を持たせるという次のステップへ、この業界全体をリードしていこうとする姿勢に拍手です! とにかく、ココをクリックしてみてください。 そして、チャートの上でマウスを動かしてみてください。 それだけで、如何に重要な情報が開示されているのか、お分かりいただけると思います。 そして、eBay にも拍手です! image141

ーーーーー

<関連>

OCP データセンターと、高温多湿気候との関係について
Facebook が Iowa にもデータセンターを作る? これも デカイ!
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner 2012 Q4
Intel と Facebook が実現する、100 Gbps でラックを貫く光学素材とは?

Comments Off on Facebook の空母のようなデータセンター: 効率/温度/湿度 を Web モニタリングしてみよう!

Facebook と Google の サーバー保有台数を推測する – James Hamilton

Posted in .Selected, Data Center Trends, Facebook, Google, James Hamilton by Agile Cat on August 17, 2012

Fun with Energy Consumption Data
http://wp.me/pwo1E-4As

Sunday, August 12, 2012
http://perspectives.mvdirona.com/2012/08/13/FunWithEnergyConsumptionData.aspx

Agile_Cat_Loupe

Facebook recently released a detailed report on their energy consumption and carbon footprint: Facebook’s Carbon and Energy Impact. Facebook has always been super open with the details behind there infrastructure. For example, they invited me to tour the Prineville datacenter just prior to its opening:

最近のことだが、Facebook のエネルギー消費とカーボン・フットプリントに関する詳細なレポートが発表された: Facebook’s Carbon and Energy Impact。 Facebook は、そのインフラストラクチャの背景となる詳細な情報を、きわめてオープンなかたちで提供してきた。 たとえば、Prineville データセンターがオープンする前に、彼らは私を招待してくれたほどだ:

Reading through the Facebook Carbon and Energy Impact page, we see they consumed 532 million kWh of energy in 2011 of which 509m kWh went to their datacenters. High scale data centers have fairly small daily variation in power consumption as server load goes up and down and there are some variations in power consumption due to external temperature conditions since hot days require more cooling than chilly days. But, highly efficient datacenters tend to be effected less by weather spending only a tiny fraction of their total power on cooling. Assuming a flat consumption model, Facebook is averaging, over the course of the year, 58.07MW of total power delivered to its data centers.

Facebook の ”Carbon and Energy Impact” ページを読み通してみると、2011年における 532 million kWh という電力消費量に気づく。 つまり、そのデータセンターでは、509m kWh が消費されたことを示している。そのサーバー負荷が上下するにしても、大規模データセンターにおける電力消費量の変動は、きわめて小さなものとなる。もちろん、夏季と冬季を比較すれば、そこでの冷却の必然性が異なるため、こうした外気条件が要因となる、電力消費量の若干の相違が生じる。 しかし、きわめて効率のよいデータセンターにおいては、全体的な消費電力に対する気候変動からの影響が、ごく小さい範囲に収まる傾向にある。 そして、このフラットな消費モデルを前提にすると、Facebook は年間を通じて、そのデータセンターに、58.07MW のトータル電力を供給したことになる。

Facebook reports an unbelievably good 1.07 Power Usage Effectiveness (PUE) which means that for every 1 Watt delivered to their servers they lose only 0.07W in power distribution and mechanical systems. I always take publicly released PUE numbers with a grain of salt in that there has been a bit of a PUE race going on between some of the large operators. It’s just about assured that there are different interpretations and different measurement techniques being employed in computing these numbers so comparing them probably doesn’t tell us much. See PUE is Still Broken but I Still use it and PUE and Total Power Usage Efficiency for more on PUE and some of the issues in using it comparatively.

Facebook のレポートによると、その Power Usage Effectiveness(PUE)は、1.07 という信じられないほどの値を叩き出している。つまり、サーバーに供給される 1 Watt に対して、その配電とメカニカルなシステムにおいて、わずか 0.07W だけが失われていることを意味する。 大手オペレーター間では、ちょっとした PUE レースが行われている感があるので、パブリックに発表された PUE 値を、常に私は割り引いて捉える。 大まかなところで確信できるのは、こうしたコンピューティングに関する値に関しては、それぞれの解釈と、それぞれの測定法が採用されていることだ。 したがって、それは、私にとって、大きな意味をもたらさない。 PUE に関しては、PUE is Still Broken but I Still use itPUE and Total Power Usage Efficiency を参照して欲しい。それを、比較で用いることで生じる、いくつかの問題が浮かび上がるだろう。

Using the Facebook PUE number of 1.07, we know they are delivering 54.27MW to the IT load (servers and storage). We don’t know the average server draw at Facebook but they have excellent server designs (see Open Compute Server Design) so they likely average at or below as 300W per server. Since 300W is an estimate, let’s also look at 250W and 400W per server:

Facebook の PUE である 1.07 を用いることで、IT(サーバーとストレージ)に、54.27 MW が供給されていることが分かる。 私たちは、Facebook における平均的なサーバー負荷を知らないが、彼らは素晴らしいサーバー・デザイン(Open Compute Server Design を参照)を有しているため、サーバーごとの消費電力は、おそらく 300W を下回るだろう。 300W を推定値とする一方で、サーバーごとの消費電力を、250W と 350W に当てはめて見てみよう。

  • 250W/server: 217,080 servers
  • 300W/server: 180,900 servers
  • 350W/server: 155,057 servers

As a comparative data point, Google’s data centers consume 260MW in aggregate (Google Details, and Defends, It’s use of Electricity). Google reports their PUE is 1.14 so we know they are delivering 228MW to their IT infrastructure (servers and storage). Google is perhaps the most focused in the industry on low power consuming servers. They invest deeply in custom designs and are willing to spend considerably more to reduce energy consumption. Estimating their average server power draw at 250W and looking at the +/-25W about that average consumption rate:

それとの比較データとして、 Google のデータセンターの例を挙げたい。 そこでは、全体として 260MW が消費されている(Google Details, and Defends, It’s use of Electricity)。 そして、Google の PUE は 1.14 だとレポートされているため、その IT インフラストラクチャ(サーバーとストレージ)に 、228MW が供給されていると分かる。 おそらく Google は、この業界で、低電力サーバーに最も注力している企業である。 彼ら、カスタムなデザインに対して大きな投資を行い、また、エネルギー消費の削減に注力することを厭わない。 そのサーバーにおける、平均的な消費電力を 250W と見積もり、また、その範囲を +/- 25W まで広げてみると、以下のようになる。

  • 225W/server: 1,155,555 servers
  • 250W/server: 1,040,000 servers
  • 275W/server: 945,454 servers

I find the Google and Facebook server counts interesting for two reasons. First, Google was estimated to have 1 million servers more than 5 years ago. The number may have been high at the time but it’s very clear that they have been super focused on work load efficiency and infrastructure utilization. To grow the search and advertising as much as they have without growing the server count at anywhere close to the same rate (if at all) is impressive. Continuing to add computationally expensive search features and new products and yet still being able to hold the server count near flat is even more impressive.

Google と Facebook におけるサーバーの台数を数えることで、2つの興味深い論点を見つけた。 最初のものは、5年以上も前から、Google は 100万台のサーバーを持つと、推測されていたことだ。 その時点において、100万台という数字は大きかったかもしれないが、ワークロードの効率化と、インフラストラクチャの有効利用について、彼らが熱心に取り組んできたことは明らかだ。 増大するサーチとアドバタイジングに対応するために、サーバーの総数を増やすこともなく、インフラストラクチャを一定のレベルに押さえていることは素晴らしい。さらに言えば、計算上は高価なものとなるサーチ機能を拡張し、また、新しいプロダクトを追加し続けながら、ほとんど変わらぬサーバー総数を維持していることが、とても印象的である。

The second notable observation from this data is that the Facebook server count is growing fast. Back in October of 2009, they had 30,000 servers. In June of 2010 the count climbed to 60,000 servers. Today they are over 150k.

そして、一連のデータから見つけ出された 2つ目のポイントは、Facebook におけるサーバーの台数が、急速に増大している点である。 2009年 10月の時点において、彼らは 30,000台のサーバーを持っていた。2010年6月には、60,000台に上昇している。そして、いま、彼らは 150,000台以上を保有している。

–jrh

James Hamilton
e: jrh@mvdirona.com
w:
http://www.mvdirona.com
b: http://blog.mvdirona.com / http://perspectives.mvdirona.com

ーーーーー

image久々の、James Hamilton 先生です。こういうデータから、こんなふうに推論し、こんな結論を導き出すとは流石です。その途中で、PUE 信仰に対して一石を投じ、Google と Facebook の傾向についてまで、適切な論評を加えてくれるとは、まさに、至れり尽くせりです。 訳していて、とても楽しかったです 🙂 ーーー image

ーーーーー

<関連>

Amazon の James Hamilton が語る、効率の良いデータセンター運用のコツとは?
Facebook メッセージを支えるストレージ・インフラを解説 – James Hamilton
Amazon データセンターについて、James Hamilton が語る
46MW を湖水で冷却し PUE 1.1 を実現する、アルプスの巨大データセンター
Amazon DynamoDB の 超弩級 クラウド NoSQL 感覚 by James Hamilton
Microsoft が発表した、OSS ベースのクラウド・サービスとは?

 

 

Comments Off on Facebook と Google の サーバー保有台数を推測する – James Hamilton

%d bloggers like this: