Agile Cat — in the cloud

Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えなければならない

Posted in Data Center Trends, Energy, Green IT, On Monday by Agile Cat on April 14, 2014

Green Data Centers: As Data Centers Multiple so do Attempts to Make the Operations Green
http://wp.me/pwo1E-7p9
By Dick Weisinger – April 3, 2014
http://formtek.com/blog/green-data-centers-as-data-centers-multiple-so-do-attempts-to-make-the-operations-green/

_ formtek

Data centers are changing.  Increased popularity of cloud computing and increased data volumes have led to the expansion of existing data centers and the building of new ones.  A report by UBT Tech and InformationWeek found that 60 percent of IT decision makers worry that the capacity of their data centers are close to be overwhelmed and rate the state of their facilities as being ”fair, serious or urgent.”

データセンターが変化している。クラウド・コンピューティングの人気と、増大するデータ量が、これまでのデータセンターに拡大を要求し、また、新たなデータセンター構築を生み出している。UBT Tech and InformationWeek からのレポートによると、IT 意思決定者の 60% が、自身のデータセンター・キャパシティについて心配し、そのファシリティが「きわめて深刻かつ切迫」している状況にあると見ているようだ。

Data Centers rank as one of the largest consumers of energy.  An NSA data center located in Bluffdale Utah, for example, consumes 65 megawatts of energy monthly at a cost of $1 million per month, which is enough to power 65,000 homes with electricity.  Increasingly there has been a focus on how to make data centers more energy efficient, to make them more ‘green’.

データセンターは、大量の電力を消費する事業者として、あまり嬉しくないランキングに入っている。たとえば、Utah の Bluffdale にある NSA のデータセンターは、毎月 65 mW の電力を消費し、$1 Million を支払っているが、それは 65,000戸の住宅分に相当する。したがって、データセンターにおけるエネルギー効率を改善し、より GREEN にしていこうという力が働いているのだ。

Eric Woods, research director at Navigant Research, said that ”there is not a single technology or design model that makes a data center green.  In fact, the green data center is connected to the broader transformation that data centers are undergoing — a transformation that encompasses technical innovation, operational improvements, new design principles, changes to the relationship between IT and business, and changes in the data center supply chain.”

Navigant Research の Research Director である Eric Woods は、「 データセンターを GREEN にするための、単一のテクノロジーやデザイン・モデルというものは存在しない。実際のところ、GREEN データセンターは、それを支える幅広い形質転換と連動している。具体的には、テクノロジーにおける革新や、オペレーションの改善、新たなデザインの原理、IT とビジネスの接点、そして、データセンター・サプライチェーンにおける変化などが、そこには含まれる」と、述べている

The green data center market is growing quickly.  In 2014, the size of the Green Data Center market will be $22.76 billion, but this is expected to increase 27 percent annually through 2019 when the market size will reach $75.89 billion, according to a report by MarketsandMarkets.  The APAC region is expected to see the highest pace of growth, but North America will continue to hold the largest market share.

GREEN データセンターのマーケットは、急速に成長している。 Marketsand Markets のレポートによると、2014年の GREEN センター市場の規模は $22.76 Billion にまで拡大するが、その後も 27% の成長率を維持し、2019年には $75.89 Billion にいたると予想される。とりわけ、APAC 地域の成長が著しいとされるが、North America が最大のマーケット・シェアを保持するだろう。

ーーーーー

4月3日の TechCrunch が、「グリーンピース、Amazonを叩き、Apple、Google、Facebookを賞賛」というタイトルで、Greenpeace のレポートを紹介していましたが、環境負荷という問題もデータセンターにはのしかかっているようです。 Agile_Cat でも、Greenpeace の初回のレポートの対訳をポストしていますが、Facebook の Oregon データセンター・プロジェクトが進んでいる頃のものだったと記憶しています。 そのときの Greenpeace の言い分は、石炭燃料を主体とする電力会社から、電気を買うなというものですが、そう言われても無理があるというのが、当時の Facebook の回答でした。 しかし、それがキッカケとなり、Facebook はデータセンターの情報を開示するようになりました。そして、Lulea では 100% 水力発電のデータセンターを実現するなど、グリーン化に取り組んだことで、このような評価を受けたのだと思います。 また、Google は、大西洋岸の風力発電や、Virginia での地熱発電を推進するなど、再生エネルギーへの取り組みが評価されたのだと思います。このポストの文中にもあるように、なかなか難しい問題があるようですが、徐々にでも、グリーン化が進むと良いですね。__AC Stamp 2

ーーーーー

<関連>

Storage の調査: Long-Term Low-Cost のコールド・ストレージは 5 PB へと向かうのか?
Cloud の調査:エンタープライズがクラウドを導入する5つの大きな理由
IoT の調査:テック・ベンダーたちは、一般顧客へのアプローチを模索する
Hybrid File の調査:エンタープライズに必須なのは、パブリックとオンプレミスのブレンドだ!
Web Programming の調査:Google の Dart は Javascript をリプレースできるのか?

Data Centers の調査 : データセンターの効率を多角的に考える

Posted in .Selected, Data Center Trends, Energy, Research by Agile Cat on December 2, 2013

Data Centers: A New Generation of Denser, More Power-Efficient Computing Centers
http://wp.me/pwo1E-6Yh
By Dick Weisinger – November 25th, 2013
http://formtek.com/blog/data-centers-a-new-generation-of-denser-more-power-efficient-computing-centers/

_ FormTek

“A 10-megawatt (MW) data center can use the energy of a small town at a cost of around $300,000 a month. Couple that with the fact that there are over 500,000 data centers in the world, and we’re talking about 2% of all electrical energy used globally. So, running the internet uses upwards of 406 terawatts per year, assuming 20.3 petawatt-hours as the world’s annual electrical energy consumption,” reports CleanTechnica.

「10 MW のデータセンターは、小さな町が消費する全電力に相当する、$300,000 という対価を 1ヶ月に支払っている。地球上には 50万ヶ所以上のデータセンターが存在するという事実と、その事を組み合わせると、この世界で消費される全電力の 2% が、この産業に費やされていることになる。つまり、世界中の年間での電力消費量が 20.3 Peta Watt/H であり、また、インターネットを運用することで 406 Tera Watt/H の電力が消費されると想定すると、そのような比率になる」と、CleanTechnica がレポートしている。

Making data centers more efficient can save tremendous amounts of both electric power and money. Increasingly data centers are focusing on reducing their size and improving kilowatt-per-hour performance. This is leading to a strong focus on creating energy-management information systems which can monitor performance and promote efficiency.

データセンターの効率化を図ることで、途方もない電力と、膨大なコストを、両面から節約できる。これからも、増設されていくデータセンターにおいて、その規模は縮小されるべきであり、また、より以上の性能を、同量の電力から引き出せるようにすべきである。そのためには、パフォーマンスを監視し、効率化を促進するための、エネルギー・マネージメントに関する情報システムの開発が、強い意志のもとで推進されなければならない。

In order to become more energy efficient, data centers are increasingly refreshing the servers that they house at a faster rate. Typically servers are refreshed about every four years, but when potential energy cost savings are factored in, it is actually better to instead replace servers every two years. Doing that, provides more CPU horsepower for the same amount of power and cooling within the same footprint.

電力効率を高めるために、データセンターは、これまで以上に速いサイクルで、ハウジングしているサーバーをリフレッシュしていく。一般的にみて、サーバーは 4年ごとに交換されているが、潜在的なエネルギー・コストの削減を織り込んでい場合には、2年ごとにサーバーをリフレッシュするほうが、実質的に優れた選択となる。そうすることで、より多くの CPU パワーを同量の電力から引き出すことが可能になり、また、同じ設置面積に対するクーリングの効率も高まる。

David Cappuccio, chief of research for infrastructure teams at Gartner, said that “many times, datacenter managers or facilities teams start with the following assumption: We are out of (or near) capacity in our datacenter, therefore when we build next we will need more space. If we have 5,000 square feet today we must need at least 7,500 or more to sustain our growth. The error is that the focus is on square footage, not compute capacity per square foot (or per kilowatt)… A data center manager who rethinks his organization’s floor plans, cooling and server refreshes can house the increased computing capacity in the original floor space, and help meet growing business needs indefinitely. We will witness small data center environments with significant computing growth rates maintaining exactly the same footprint for the next 15 to 20 years.”

Gaetner の  Chief of Research for Infrastructure Teams である David Cappuccio は、「 データセンター管理者や、ファシリティ・チームは、いつも、以下を前提として考え始めてしまう:いまのデータセンターでは、キャパシティが足りなくなっているので、次のものを構築するなら、より広いスペースが必要になる。 今後の成長を維持するには、いまの 5000 平方フィートに換えて、少なくとも 7500 平方フィート以上が必要となる。・・・ こうした間違えは、面積だけにフォーカスし、面積あたりのコンピューティング容量(もしくはキロワットあたりの容量)を、計算していないところから生じる ・・・ 対象となるフロアと、クーリング、サーバー更新サイクルのプランについて、再考するデータセンター・マネージャであれば、同じだけの床面積に、増大するコンピューティング容量を収容し、そのビジネス・ニーズを満たすだけの成長を、永続的に達成していける。今後の 15年〜20年 において、まったく広がらない床面積を維持しながら、また、データセンターとしては小規模でありながら、コンピューティング容量が大幅に成長していくという歴史の、私たちは目撃者となる」と発言している

ーーーーー

TAG indexこれまでにも、サーバーの交換サイクルは 3年が良いと言われていましたが、それを 2年に短縮すべきという話ですね。先月にソウルで開催された OCP のワークショップでは、Oregon および、North Carolina、Lulea、Iowa で進められている Facebook のデータセンターが、それぞれ 3棟ずつの構成になるという資料が提示されていましたが、その中の 1棟は、つねに改装中という考え方なのかもしれませんね。そして、改装が行われるたびに、消費電力とコンピューティング密度が、段階的に改善されていくのでしょう。それは、フロント・パネルなどの飾りをサーバーから無くしていこうという、最近のトレンドの論理的な裏付けだとも言えるのです。__AC Stamp 2

ーーーーー

<関連>

Hybrid の調査 : ベスト・クラウド は Private と Public のブレンドから
Data Center の調査 : DC 内 IP トラフィックが 2017年には 3倍に増大する
VPC の調査 : プライベート・クラウドの仮想化は、新しいトレンドになり得るのか?
Hybrid の調査: プライベートはハイブリッドへと変異する宿命にある
Mobile の調査 : 無償アプリが支配する モバイルの市場

Google の洋上データセンター : SF に続いて 東海岸にも出現!

Posted in Data Center Trends, Energy, Google, Green IT by Agile Cat on October 29, 2013

Google could have a floating data center in Maine, too
http://wp.me/pwo1E-6PC

by
Daniel Terdiman – October 25, 2013
http://news.cnet.com/8301-1023_3-57609412-93/google-could-have-a-floating-data-center-in-maine-too/

image

The tech giant is likely building a floating data center in San Francisco Bay. But a very similar project rolled into the harbor in Portland, Maine, earlier this month. The two are definitely connected.

この、ハイテク界の巨人は、San Francisco Bay に浮かぶデータセンターを構築しているようだ。そして、きわめて似かよったプロジェクトが、Portland, Maine の港でも展開されていることが、今月の初めに分かった。この 2つのプロジェクトは、絶対に連携していると思う。

___space

(Credit:John Ewing/Portland Press Herald)

This structure, seen on a barge in Portland, Maine, could well be a Google floating data center. A very similar structure is under construction in San Francisco Bay.
Portland, Maine で確認された、このハシケの上に設置された構造物だが、Google の洋上データセンターである可能性が高い。 そして、きわめて似かよった構造物が、San Francisco Bay では建設中となっている。

___space

As CNET reported Friday, it looks very much like Google has been building a floating data center made from shipping containers on a barge in the middle of San Francisco Bay. But it may not be the only one of its kind.

CNET が、金曜日にレポートしたように、Google は San Francisco Bay の真ん中で、洋上のハシケの上に輸送用のコンテナを設置し、それをデータセンターに仕立てあげようとしている。 そして、Portland の構築物も、それに似ているように思える。 つまり、このプロジェクトは、二ヶ所で並行して推進されているのだろう。

Google has not responded to multiple requests for comment. But the project in San Francisco Bay appears likely to be the manifestation of a 2009 patent for a "water-based data center," and would likely leverage the fact that wave energy can provide cheap and plentiful power.

Google には何度か問い合わせているが、何のコメントも戻っていない。しかし、この San Francisco Bay におけるプロジェクトは、同社が 2009年に取得した特許である "water-based data center" を、具現化したものとも思える。つまり、波のエネルギーを活用する、安価で豊富な電力が供給されることになるのだろう。

Now it seems as though Google may well have built a sister version of the project, and, according to the Portland Press Herald, it recently showed up in the harbor in Portland, Maine.

そして、いま、Google は、このプロジェクトにおける姉妹版を構築したかのように見える。Portland Press Herald によると、その構築物が、最近になって Portland, Maine 港に現れたとのことである。

In both cases, the structures on both barges appear to be made from a number of shipping containers, many of which have small slats for windows, and each has one container that slants down to ground level at a 45-degree angle.

双方のケースとも、ハシケの上の構造物は複数の搬送用コンテナで構成されるが、その多くは芯棒により固定されている。 そして、1つのコンテナが、下向き 45度の角度で設置されている。

___space

(Credit:Tom Bell/Portland Press Herald)

The registration on the Portland barge is "BAL 0011," which ties it to the barge in San Francisco Bay, which has the registration number "BAL 0010." Both are owned by By and Large, LLC.
なお、Portland のハシケに記された登録番号は "BAL 0011" であり、San Francisco Bay の "BAL0010" と連番になっている。 そして、その所有者は、どちらも By and Large, LLC である。

___space

If that wasn’t enough to establish that the two are related, it’s also clear that both were built on barges owned by the same company. The one in San Francisco Bay was built on top of a barge with the registration "BAL 0010," while the one in Portland harbor is on a barge with the registration "BAL 0011." According to online documents, both are owned by By and Large, LLC. That company, which has a miniscule online profile, is also the current tenant in Hangar 3, an immense building alongside the pier where the San Francisco Bay project is under construction.

それだけでは、2つのプロジェクトの関連性を確証できないかもしれないが、少なくも、同じ会社が所有するハシケの上に構築されていることは明らかだ。 San Francisco Bay の構造物は、"BAL 0010" という登録番号のハシケに構築され、また、Portland のハシケは "BAL 0011" である。 そして、オンラインで検索したところ、どちらも By and Large, LLC に所有されていることが分かった。同社のオンライン・プロファイルは、あまり詳しいことを書いていないが、現時点で Hangar 3 のテナントになっているようだ。 そして、この埠頭で、巨大な構造物を建造するという、San Francisco Bay プロジェクトが進められているのだ。

___space

(Credit:James Martin/CNET)

The structure that is likely a Google floating data center, on a barge in San Francisco Bay.
San Francisco Bay のハシケ上で構築される、Google の洋上データセンターと思われる構造物。

___space

Now the question is, if there’s one in San Francisco Bay and another in Maine, are there more out there? If you’ve seen a barge with a large structure that looks like the ones pictured here, please let me know.

ここで疑問が生じてくるのだが、1つが San Francisco Bay にあり、もう1つが Maine にあるのなら、どこかに、もっとあるのではないだろうか?この記事で示されている、巨大な構造体を乗せたハシケを見かけたら、ぜひ、教えて欲しい。

ーーーーー

image128文中でも紹介されているように、Google の洋上データセンターに関しては、だいぶ前に特許が申請されたとき、ちょっとした騒ぎになっていました。そして、その後ですが、『 Google がフィンランドに作った海水冷 DC とは? 』という抄訳でご紹介したように、すでに Google は、海水冷のデータセンターを運用しているので、さまざまなデータを所有しているはずです。あの、45度に傾いたコンテナは、熱交換器に吸い込まれてしまった魚などを、捨てるためにあるのでしょうか :) それにしても、デカイですね。 いったい、何本のコンテナを束ねているのでしょうかね?

ーーーーー

<関連>

Google のインフラ投資額 : これまでに $21B をデータセンターに!
Google が 5分ほど落ちた : そしたら 5千万円ほど 吹っ飛んだらしい
46MW を湖水で冷却し PUE 1.1 を実現する、アルプスの巨大データセンター
Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
コ・ロケーションのための、データセンター Hotsopt を探せ!

 

SoftBank と Bloom Energy が提携 : 最新の燃料電池が日本にやってくる!

Posted in .Selected, Data Center Trends, Energy, Green IT by Agile Cat on July 19, 2013

SoftBank, Bloom Energy joint venture will bring fuel cells to Japan
http://wp.me/pwo1E-6o7

By
Signe Brewster – July 17, 2013
http://gigaom.com/2013/07/17/softbank-bloom-energy-joint-venture-will-bring-fuel-cells-to-japan/

_ Gigaom

Summary: The compact, efficient power sources are suited to companies looking for an on-site alternative to Japan’s national energy grid.

Summary: この、コンパクトで効率の良い電力源は、電力網をオンサイト発電で代替しようとする、日本の企業に適している。

ーーーーー

Since the 2011 earthquake and resulting Fukushima nuclear meltdown, Japan has shut down nearly all of its nuclear power plants, causing a spike in electricity costs. SoftBank and Bloom Energy announced today they will begin offering fuel cells this fall as an alternative off-the-grid power source.

2011年の大地震と、福島でのメルトダウンが起こってからというもの、ほとんどの原子力発電所をシャットダウンた日本は、電力コストの急増に直面している。今日のことだが、SoftBank と Bloom Energy 社は、オフ・グリッド電源としての燃料電池を、この秋には提供すると発表した。

The 50-50 joint venture will target corporate offices, data centers, hospitals, government centers and other large buildings that would benefit from multiple power sources. Each fuel cell system generates enough electricity to power 500 homes.

そのための 50% – 50% のジョイント・ベンチャーがターゲットとするのは、企業のオフィス/データセンター/病院施設/行政センターなどの大規模な建造物である。 そして、そのどれもが、複数の電源を持つという恩恵を被るだろう。 なお、単体としての燃料電池システムは、500戸の家庭に電力を供給するだけの、充分な容量を持っている。

The cells also offer a way to decentralize power. They are completely separate from the national energy grid and generate power onsite. If another disaster hit and an area’s primary fuel source was taken out, a fuel cell could take over. This is often how they’re used in the U.S. at data centers, where companies can’t afford to ever lose power completely.

さらに、この燃料電池は、電力を分散するための方式を提供する。つまり、それぞれの国における電力網から、完全に独立したかたちで、オンサイトで電力を生成できるのだ。なんらかの災害が発生し、いずれかの地域における、主要電力の供給が止まるとき、この燃料電池が、そのあとを引き継ぐだろう。 したがって、アメリカでの導入ケースとしては、電源を完全に失うわけにはいかないデータセンターで、実績を積み重ねている状況にある。

Fuel cells are cleaner and more efficient than fossil fuel energy sources, but more costly. SoftBank and Bloom Energy say the cells offer a stable alternative to rising electricity prices in Japan. Clients will pay for the initial cost of the cells over the course of a 20 year contract.

燃料電池はクリーンであり、また、化石燃料エネルギーよりも効率が良いが、そのコストも高くなる。しかし、SoftBank と Bloom Energy は、価格が高騰する日本の電気料金に対して、この燃料電池は安定的な代替手段を提供すると発言している。そして顧客は、20年契約の期間において、その初期費用を償却していくことになる。

SoftBank and Bloom Energy are each investing 1 billion yen — a total of roughly $20 million — to start Bloom Energy Japan Limited. Bloom Energy is based out of Sunnyvale, Calif., and has provided fuel cells to American corporations like Apple, eBay and Verizon. Japan Limited is its first venture outside the U.S. SoftBank owns a range of telecommunications, internet and technology companies, including Sprint Nextel, which it acquired this month.

SoftBank と Bloom Energy は、それぞれが 10億円の投資を行い(合計で $20 million)、Bloom Energy Japan Limited を設立する。Bloom Energy は Sunnyvale, Calif に本拠を置き、AppleeBayVerizon などのアメリカ企業に燃料電池を提供してきた。 そして、今回の Japan Limited は、初めての海外展開となる。また、SoftBank は、テレコムとインターネットのテック・カンパニーであり、また、 今月には Sprint Nextel を傘下に収めている。

Bloom Energy’s fuel cells run off natural gas and biogas, as opposed to the more common hydrogen. The gas is modified and exposed to oxygen, creating a chemical reaction that produces electricity. A small amount of carbon dioxide is released as a byproduct.

Bloom Energy の燃料電池は、水素を用いるものとは対照的に、天然ガスやバイオガスを活用するものである。 そして、ガスと酸素の化学反応により電力を生成する。また、副生成物として、少量の CO2 が放出される。

Related research

ーーーーー

imageなぜ、Bloom Energy は日本に来ないのか? どうして、誰もビジネスとして、取り組まないのか? ・・・ というのが、Agile_Cat にとって、長い間の疑問でした。 でも、ついに Softbank が Japan Limited を設立するのですね! すばらしいことです。 ほんと、すばらしい!!! ぜひ、以下のリンクも、ご参照ください。image

ーーーーー

<関連>

NASA から生まれ、Google や eBay が利用する、燃料電池 Bloom Box とは?
eBay のデータセンターは、燃料電池から 6MW を絞り出す
NTT America が DC にディプロイする燃料電池とは?
100% の再生エネルギーを目指す、Apple のデータセンター戦略
Apple が クリーン・パワー DC を推進する、5つの理由を分析する

 

Facebook の空母のようなデータセンター: 効率/温度/湿度 を Web モニタリングしてみよう!

Posted in .Chronicle, .Selected, Data Center Trends, Energy, Facebook, Open Compute by Agile Cat on April 25, 2013

Facebook throws down efficiency gauntlet with real-time data and open-source dashboards
http://wp.me/pwo1E-61o

By
Jordan Novet -   Apr. 18, 2013
http://gigaom.com/2013/04/18/facebook-heads-down-efficiency-gauntlet-with-real-time-data-and-open-source-dashboards/

_ Gigaom

image

クリックでモニターへ ⇒

Summary: Following on previous quarterly disclosures on energy and water efficiency, Facebook is unveiling dashboards showing its data centers’ near-real-time performance.

Summary:  Facebook は、これまでのエネルギーと水の効率に関する四半期レポートに続いて、対象となるデータセンターのパフォーマンスを、ほぼリアルタイムで示すダッシュボードを発表している。

ーーーーー

When I first visited Facebook’s data center in Prineville, Ore., in 2011, I felt privileged to spot some figures on the facility’s power-usage effectiveness (PUE) on a screen affixed to a wall. The PUE number, which gives a sense of how much of the energy gets consumed by computing gear, wasn’t exactly what some reporters wanted to know — total number of megawatts would have been better than PUE, and that sort of information came later — but it was a start toward transparency. Now, the PUE data won’t be such a big deal to catch a glimpse of anymore.

Prineville, Oreron の Facebook データセンターへ、初めて訪問したのは 2011年のことだった。そして、カベに貼り付けられたスクリーンに示される、このファシリティの PUE 値を読むという、特権をもらったと感じたものだ。この PUE 値は、コンピューティング・ギアにより、どの程度の電力が消費されるのかという感覚を与えるものであり、何人かのレポーターがが知りたいと思ったものほど正確ではなかったが(トータル・メガワットの方が PUE よりも適切であり、また、その情報は後に届けられた)、その内容の透過的に見るための試みであった。 そして、いまでは、このデータセンターの姿をキャッチする上で、PUE だけが重視される状況ではなくなった。

The social-networking giant is giving the general public access to near-real-time dashboards on PUE and another key measurement, water-usage effectiveness (WUE), alongside humidity and temperature data for its data centers in Prineville and in Forest City, N.C. Previously, the PUE and WUE figures were released quarterly. The new dashboards show data down to the minute, albeit with a two and a half hour lag. In the future, Facebook will also post a PUE and WUE dashboard for the data center it’s building in Luleå, Sweden.

このソーシャル·ネットワーキングの巨人は、同社データセンターの PUE と WUE(Water Usage Effectiveness)にアクセスするための、リアルタイム・ダッシュボードをパブリックに提供している。そして、Prineville と Forest City, N.C. における、湿度と気温のデータまで参照できるのだ。以前には、四半期ごとに、この PUEWUEの数値はリリースされていた。そして、新しいダッシュボードでは、2時間半のタイムラグがあるが、1分ごとにダウンロードされるデータが表示される。また、Luleå, Sweden に建設中データセンターにおける、PUE と WUE のダッシュボードも、Facebook は提供していくとポストしている。

The facilities are still under construction, and, as a result, the data in the two dashboards can have abnormalities, but it should become more stable over time. The company detailed its plans in a Thursday blog post on the Open Compute Project site.

これらのファシリティは、いまは工事中であり、この2つのダッシュボードを用いて異常なデータを検出しているが、時間をかけながら、より安定したものになるはずだ。同社は、Open Compute Project サイト の木曜日 (4/18) のブログ・ポストで、その計画を詳述している。

↓ クリックで拡大 ↓

Facebook’s Power Usage Efficiency (PUE) and Water Usage Efficiency (WUE) dashboard

Facebook’s Power Use Efficiency (PUE) and Water Use Efficiency (WUE) dashboard

To prod other companies operating data centers to share more up-to-date power- and water-usage data, Facebook will open-source the code for the dashboards. Similar data from other companies could make Facebook look good, as Facebook (along with Google) is on the leading edge when it comes to PUE. eBay, for its part, has released a dashboard showing PUE and WUE as well as other measurements, such as the number of checkout transactions per kilowatt-hour.

他の企業が運用するデータセンターにおける、電力と水の使用量に関する最新データも共有していくために、このダッシュボードのコードを、Facebook はオープン・ソースにするようだ。 PUE の話になると、他企業から提供されるデータにより、Facebook が(Google も)最先端にあるような結果となっている。しかし、その点において eBay も、PUE と WUE だけではなく、キロワット時あたりのチェックアウト·トランザクション数などの、他の測定値を示すダッシュボードをリリースしている。

Innovations in hardware and software at Facebook’s data centers make lower energy use possible. Whether Facebook will be able to squeeze even more computing power out of its energy and water consumption is an interesting question, and now that more current data is being shared, it’s worth asking what innovations will come in the future. If Yahoo, Microsoft and others follow suit, the pressure will be on for data centers across the board to become more transparent. Those efforts could help data center operators respond to notions that data centers waste energy.

Facebook データセンターにおける、ハードウェアとソフトウェアのイノベーションにより、より効率の良いエネルギー消費が可能になってきた。 Facebook が、その電力と水の消費から、さらなるコンピューティング・パワーを絞り出せるかどうかは、きわめて興味深い課題であるが、ライブなデータが共有されることで、将来におけるイノベーションが喚起されることは、大きな価値を持つだろう。もし、Yahoo や Microsoft が追随するなら、このデータセンター全体におよぶプレッシャーにより、さらなる透明性がもたらされるだろ。こうした努力の積み上げにより、データセンター事業者たちは、エネルギーを浪費しているという指摘に対して、適切に対応していけるようになるだろう。

Related research

ーーーーー

TAG indexこれほど、手放しで褒められる試みも、珍しいのではないかと思います。 単に効率の良いデータセンターを構築/運用するだけではなく、その実体に透明性を持たせるという次のステップへ、この業界全体をリードしていこうとする姿勢に拍手です! とにかく、ココをクリックしてみてください。 そして、チャートの上でマウスを動かしてみてください。 それだけで、如何に重要な情報が開示されているのか、お分かりいただけると思います。 そして、eBay にも拍手です! image141

ーーーーー

<関連>

OCP データセンターと、高温多湿気候との関係について
Facebook が Iowa にもデータセンターを作る? これも デカイ!
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner 2012 Q4
Intel と Facebook が実現する、100 Gbps でラックを貫く光学素材とは?

OCP データセンターと、高温多湿気候との関係について

Posted in .Selected, Data Center Trends, Energy, Facebook, Open Compute by Agile Cat on March 14, 2013

Cooling an OCP Data Center in a Hot and Humid Climate
http://wp.me/pwo1E-5Lx
November 14, 2012 · Posted by Daniel Lee
http://www.opencompute.org/2012/11/14/cooling-an-ocp-data-center-in-a-hot-and-humid-climate/

image

Building a data center based on Open Compute Project designs in a relatively hot and humid area like Forest City, North Carolina, presented some interesting challenges. Chief among them, of course, was whether the 100% outdoor air cooling system Facebook debuted in our Prineville, Oregon, facility could operate as efficiently in an environment where the ASHRAE 50-year maximum wet bulb temperature is 21% higher, at 84.5°F instead of 70.3°F.

Open Compute Project デザインに基づいたデータセンターを、Forest City, North Carolina のような、比較的に高温多湿なエリアに構築することは、いくつかの興味深い課題を提起する。 もちろん、その中で最たるものは、Prineville, Oregon で Facebook がデビューさせた 100% の外気冷却方式が、適用できるか、できないか、という点であった。 具体的な論点は、ASHRAE の 50年 最高湿球温度で比較すると、21% も高温な環境へと移行させることである。 つまり、70.3°F(21.3°C)の環境から、84.5°F(29.2°C )の環境へ移行しても、そのファシリティが運用できるかという点に集約される。

The design we use in Prineville works great in central Oregon – a high desert plain with hot, dry summers and cool evenings and winters. These are ideal conditions for using evaporative cooling and humidification systems, instead of the mechanical chillers used in more-conventional data center designs. And ASHRAE 50-year design weather maximums and bin weather data show that such a system is sufficient for even the hottest summer days in central Oregon.

私たちが Prineville で用いたデザインは、Oregon の中央に広がる大地の、熱くて乾燥した夏期と、冷込む夜間と冬期という気候の中で、すべてが順調に機能している。 そこは、数多くの従来型のデータセンター・デザインで使用される機械式のチラーに代えて、気化熱冷却と加湿システムを利用していくための、理想的なコンディションとなる。 そして、ASHRAE の 50年 気象測定結果と、Bin Weather Data が示すのは、Oregon 中央部であれば、こうしたシステムが、暑い夏の日であっても充分に機能する点である。

When we started looking at Forest City, the bin weather data suggested that refrigeration might not be required, but ASHRAE 50-year design weather maximums suggested otherwise. We ultimately decided to install a direct expansion (DX) coil system in the facility, just in case it might be needed, but it was important to us to find a way to make the free cooling system work — the potential efficiency gains to be found in keeping those DX units switched off were just too great to ignore.

私たちが Forest City に注目し始めたとき、Bin Weather Data は機械式の冷却が不要かもしれないとしたが、ASHRAE の 50年気象測定は別のことを示唆した。そして、最終的には、このファシリティに DX(Direct Expansion)コイル・システムをインストールすることに決めたが、その利用は必要とされるケースに限定される。つまり、自然冷却システムを機能させる方式を探し出すことが、私たちにとって重要だったのである。そして、潜在的な効率は、DX ユニットのスイッチを OFF にしておくことで見いだされるが、無視するには余りにも大きなものとなる。

↓ クリックで拡大 ↓

Psychrometric Chart: Bin weather data plotted on Rutherfordton (approx. 6 miles NW of Forest City) suggests that DX cooling is probably not necessary in a typical year; but ASHRAE MAX WB suggests the opposite.

湿度線図:Bin Weather Data による、Rutherfordton (approx. 6 miles NW of Forest City) のプロット・データが示唆するのは、一般的な年であれば、DX コイルが不要だろうというものだ。 しかし、 ASHRAE MAX WB は、正反対の結果を示唆する。

To try to make the free cooling system work in Forest City, we expanded the maximum allowable temperature and humidity conditions for our server environment. Because wet bulb temperatures are higher in western North Carolina than they are in central Oregon, we set the upper end of the server inlet temperature range at 85°F, instead of at 80°F. And because of the higher humidity in North Carolina, we expanded the relative humidity (RH) maximum from 65% RH to 90% RH.

Forest City に合った自然冷却のシステムを構築するために、私たちはサーバー環境における最大許容温度と湿度条件を拡大した。 つまり、North Carolina 西部での湿式温度が、Oregon 中央部より高いため、サーバー・インレットの上限を、80°F(26.7°C)から 85°(29.5°C)に設定し直したのだ。 そして、North Carolina の多湿な気候に合わせるために、相対湿度(RH)の上限値も、65% RH から 90% RH に拡大した。

Summer 2012 in the US presented an excellent test of the design. July 2012 was the second hottest month on record in North Carolina, in the third hottest summer ever documented in the continental US. At one point the dry bulb temperature topped 100°F outside the data center.

2012年のアメリカの夏は、このデザインにとって格好のテスト環境をもたらした。 2012年7月は、North Carolina の観測記録上、3番目に暑い夏であり、また、アメリカ本土に関して文書化された中では、2番目の猛暑を記録した。 この期間においては、データセンターの外側に設置された乾湿温度計が、100°F(37.8°C)を超えることもあった。

But despite the record-breaking dry bulb temperatures, we didn’t run the DX coils at all this past summer. If you look at the trend data, it shows that when the record hot days occurred, relative humidity was low, allowing the misting system to provide all the needed cooling. The chart for July 1 illustrates this.

しかし、この記録破りの乾湿温度にもかかわらず、この夏を通じて、DX コイルを動かすことはなかった。 以下の記録的な猛暑日の、データの推移を見れば分かってもらえるが、相対湿度が下がるため、ミスト・システムを稼働させて、必要とされる冷却効果を達成できている。 この、7月1日のチャートが、それを例証している。

↓ クリックで拡大 ↓

Outside Air DB Temperature: 07/01/12 was one of the hottest days of the summer, with a high of 102° F DB. But it didn’t require DX cooling, because the coincident humidity was 26% RH.

Outside Air DB Temperature:  07/01/12 は、乾湿温度で 102°F(38.9°C)を記録するという、 この夏における猛暑日の1つであった。しかし、 DX 冷房を使わずに済んだのは、気温の上昇に応じて、湿度が 26% RH まで低下したからである。

We also saw several days of high relative humidity over the course of the summer. High RH is potentially problematic in an evaporative cooling system, as our ability to cool air by adding water decreases as the RH of the incoming air increases. But, as illustrated by the chart for June 25, the dry bulb temperature tended to be low on the days RH was high this summer – meaning that we didn’t need to cool it before sending it into the data hall. (In fact, in some cases we actually added hot return air from the data hall to the supply air, to bring the relative humidity down within 90% RH cap.)

私たちは、この夏を通じて、相対湿度の高い日にも注目してみた。RH が高いことは、気化熱冷却システムにとって、潜在的な問題である。なぜなら、外気の RH が増加するにつれて、空気を冷やすための水を減らす必要があるがらだ。 しかし、6月25日のチャートが例証するように、この夏においては、乾湿気温が上昇する日に、RH が低下するという傾向があった 。つまり、この外気をデータホールに送る前に、それを冷やす必要がなかったことを意味している。 (実際のところ、キャップ値である 90% RH よりも相対湿度を下げるために、データホールから暖気を、供給する空気に加えるケースもあった)

↓ クリックで拡大 ↓

Outside Air Relative Humidity: The most humid day of this summer was 06/25/12, with a 97% RH. But it didn’t require DX cooling, as the coincident DB temperature was 68°F.

Outside Air Relative Humidity: この夏で、最も多湿な日は 06/25/12であり、その日の値は 97% RH であった。しかし、DB 温度も 68°F(20°C)に下がったため、DX 冷房は必要なかった。 

So it turns out this design can work in relatively high heat and humidity, and it can work as efficiently as it does at Prineville. In fact, the power usage effectiveness (PUE) for Forest City clocked in at 1.07 this summer, versus Prineville’s 1.09 during roughly the same period. It remains to be seen how efficiently the system would perform if both the DB temperature and the WB temperature were to simultaneously exceed the limits we’ve set, but the likelihood of such an event in this region is low, and its impact on annualized PUE would likely be minimal.

したがって、それでこのデザインが、比較的に高温多湿の環境でも、機能することが分かる。 そして、Prineville のケースと同様に、効率を高めることが可能である。 実際のところ、この夏における Forest City の PUE は 1.07 を記録しているが、同時期の Prineville は 1.09 であった。 もし DB 温度と WB 温度の双方が同時に、私たちが設定した限界をを超えるなら、このシステムが運用効率について、検証すべき視点が残されるだろう。しかし、この地域において、そのような現象が起こる可能性は低い。また、そのような状況になったとして、年間 PUE に対する影響は、おそらく最小で済むだろう。

↓ クリックで拡大 ↓

07/01/12 – 07/07/12: One week’s worth of trend data shows that DX cooling wasn’t required as dry bulb was high, but RH was low enough for evaporative cooling.

07/01/12 – 07/07/12:  1 週間の稼働におけるデータの傾向は、乾湿気温が上がれば RH が下がるという、気化熱冷却に適したものであり、また、DX 冷房が不要であることを示している。

If you’re interested in learning more about these designs and their performance, be sure to register for the upcoming Open Compute Summit, which will be held in Santa Clara, California, on January 16-17, 2013. We hope to see you there!

これらのデザインと性能について、さらに多くを知りたいなら、2013年1月16-17日に Santa Clara, California で開催される、Open Compute Summit に参加して欲しい。 そこで会いましょう!

Dan is a mechanical engineer at Facebook.

ーーーーー

TAG indexClick It ⇒

I found out an useful weather data in Japan Meteorological Agency, which describe the outside Air DB Temperature in TOKYO: 08/02/12 was one of the hottest days of the summer, with a high of 93.2° F (34.0°C) DB. But the coincident humidity was 41% RH. For the details, please click here. 

気になったので、気象庁の Web を調べてみたところ、日本各地の詳細データが見つかりました。2012年8月2日の東京は、日中の最高気温が 34.0°C まで上がりましたが、そのときの相対湿度は 41% RH まで下がっています。詳細については、ここをクリックしてみてください。

ーーーーー

>>>  Open Compute Japan の FB ページです! イイネをくださ~い! <<<

ーーーーー

<関連>

詳細な解説つきの Facebook Oregon DC フォト・ツアー
Facebook の、次の巨大データセンターが North Carolina に!
Facebook Oregon データセンターを、10分間の詳細ビデオで ど~ぞ!
Facebook の爆発的な成長と、それを支えるデータセンター戦略
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?
Facebook の 巨大 DC を気化熱で冷やす、ミストの秘密について説明しよう
Facebook は Open Compute を、コ・ロケーションにも適用する
Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり

Facebook の 巨大 DC を気化熱で冷やす、ミストの秘密について説明しよう

Posted in .Selected, Data Center Trends, Energy, Facebook, Green IT, Open Compute by Agile Cat on August 29, 2012

jWater Efficiency at Facebook’s Prineville Data Center
http://wp.me/pwo1E-4F6

Thursday, August 9, 2012 · Posted by
Daniel Lee
http://opencompute.org/2012/08/09/water-efficiency-at-facebooks-prineville-data-center/

image

For Facebook, good data center design is all about efficiency — how efficiently we use energy, materials, and water, and how they tie together to bring about cost efficiency. We’ve previously shared information on energy and materials efficiency, and today we’re releasing our first water usage effectiveness (WUE) measurements and information on how we’ve achieved what we think is a strong level of efficiency in water use for cooling in the first building at our Prineville, Ore., data center (which we’ll call Prineville 1 here).

Facebook にとって、優れたデータセンター・デザインとは、すべから有効性に集約される。 つまり、どのようにして、電力と、物質と、水を、有効に利用し、また、コストの効率化に、如何にして結びつけるかということである。 以前から、私たちは、電力と物質の有効利用について、その情報を共有してきた。そして、いま、私たちの WUE(Water Usage Effectiveness )について、その基準と情報をリリースする。それは、Prineville, Ore. における最初のデータセンターで(ここで Prineville 1と呼ぶ)、水を用いた冷却における効率を、高次元に引き上げるという発想を、どのように具体化したのかという話でもある。

We’re sharing this information as part of our commitment to the Open Compute Project; we believe that open sharing and collaboration surrounding these kinds of best practices is crucial to ensuring that, as an industry, we’re innovating rapidly and minimizing our environmental impact.

この情報についても、Open Compute Project へ向けたコミットメントの一部として、私たちは共有している。この種のベスト・プラクティスを取り巻く、オープンな共用とコラボレーションは、環境に対する影響を迅速に改善し、また、確実に最小化していくことを、1つの産業として約束する上で、きわめて重要なことだと信じる。

After a year of operation, which required our retrofitting the building management system and adding water metering, we’ve found Prineville 1′s Q2 2012 WUE to be 0.22 L/kWh. By definition, WUE is an annualized calculation; however, we will report results on a quarterly basis, and those numbers will eventually become a 12-month trailing metric. WUE measures water used for cooling a data center only; it doesn’t measure water used for plumbing or offices, though Facebook minimizes water usage in these areas as well by using reclaimed water and waterless urinals in the bathrooms.

マネージメント・システムに対する変更と、水に関する測定の追加を要求する、1年間の運用を達成した後、私たちは、Prineville 1 における 2012年 Q2 の WUE が 0.22L /kWh であるのことを理解した。 定義上、 WUEは年間を通じて計算されるべきであるが、私たちは四半期ベースの結果をレポートしていく。 ただし、そこでの値は、最終的に、12ヶ月間を通した基準になるだろう。 WUE とは、データセンターを冷却するために用いられる、水に限定した測定となる。 つまり、たとえば Facebook は、トイレにおける再生水や節水などにより、他の領域でも水利用を最小化しているが、それらの水道施設やオフィスで使用された水は測定されない。

We think that 0.22 L/kWh is a great result, but it should be noted that the WUE concept is fairly new and, to our knowledge, no one else has publicly reported WUE yet. We hope that other companies will soon start measuring and reporting WUE so we can begin setting benchmarks for the metric and working together to find new ways to improve.

私たちは 0.22 L/kWh を、素晴らしい結果だと捉えているが、WUE のコンセプトは最新のものであり、また、私たちの認識においては、他に誰かが WUE について、公式にレポートしたこともない。 したがって、それらの点を留意しておくべきだろう。私たちは、他の企業が早急に WUE を測定し、その結果をレポートすることを希望している。そうすれば、この基準に対するベンチマークを設定し、また、改善のための方式を、協調して探っていくことが可能になる。

How Facebook Minimizes Water Usage for Cooling

Prineville 1′s mechanical system comprises a built-up penthouse that utilizes 100% outside air economization with a direct evaporative cooling and humidification (ECH) misting system. This design allows us to achieve a strong WUE. Details and specifications for this system can be found at http://www.opencompute.org/specs. This blog post provides insight into the water efficiency of the Open Compute Project (OCP) mechanical system deployed in Prineville.

Prineville 1 のメカニカル・システムは、ダイレクトな ECH(Evaporative Cooling and Humidification )ミスト・システムによる、外気 100% のエコノマイザーを利用するために、作りこまれたペントハウスにより構成される。 そして、このデザインにより、私たちは高度な WUE を達成するできた。 このシステムに関する詳細と仕様は、www.opencompute.org/specs で参照できる。 このブログ・ポストは、Prineville にディプロイされた Open Compute Project(OCP)メカニカル・システムの、水利用の効率に関する洞察を提供している。

Mixing outside air and return air. (Photo by Alan Brandt.)
クリックで拡大

Typical data center mechanical systems usually do not use outside air economization, instead recirculating up to 100% of the air used to cool the server room with a central chilled water plant and cooling towers, which consumes much more energy and water. It’s like using a window-mounted air conditioner to cool a room instead of putting a fan in a window when the outside temperatures are cooler than the temperature in the room.

一般的なデータセンターのメカニカル・システムでは、サーバー・ルームを冷やすために、外気エコノマイザーを使用しないのが通常である。それに代えて、センタライズされた冷却水プラントとクーリング・タワーにより、100% まで循環される空気が用いられるが、そこでは、より多くの電力と水が消費されてしまう。 つまり、室内の空気より外気が冷たいときに、ファンを回転させて室内に冷気を送り込むのに代えて、窓に取り付けられたクーラーを使うようなものだ。

Mixing outside air and return air.
(Photo by Alan Brandt.)

Furthermore, the typical data center mechanical system consumes water via cooling towers, which process waste heat to the atmosphere via evaporation as a large fan blows air over media moistened with water. In addition to this evaporation, cooling towers require blow down, which is the dumping of the cooling tower water to sewage. Blow down is necessary for a cooling tower due to the water accumulating dissolved minerals as the water evaporates.

さらに、一般的なデータセンターのメカニカル・システムでは、クーリング・タワーにより水が消費されてしまう。なぜなら、水で湿らせた媒介物に対して、大型のファンで空気を吹き当てるという、気化熱を用いた方式により排熱プロセスを達成しているからだ。 また、そこでの蒸発量に加えて、クーリング・タワーは大きな風量を必要とするため、貴重な水を下水へと無理やり流しこむことになる。 つまり、気化熱を用いることで、水に溶け込んでいる鉱物質の濃度が上昇してしまうため、水を吹き飛ばすだけの風量が、クーリング・タワーには不可欠なものとなる。 

The OCP mechanical system has no chillers or cooling towers. Instead, it uses outside air as a first stage of cooling, a process that is also referred to as outside air economization. Economization is utilized the entire year in Prineville 1, as the OCP system is designed to be single pass, where outside air enters the data center, warms up as it passes over the servers, and then is either recirculated or exhausted back outside. This system greatly minimizes the need for blow down, and it also doesn’t require the use of chemical treatments to combat biological intrusions like algae.

OCP のメカニカル・システムでは、チラーやはクーリング・タワーは用いられない。 その代わりに、冷却のための第一段階として外気を用いる。 しれは、外気エコノマイザーとも呼ばれるプロセスである。 OCP システムは、シングル・パスとしても設計されているため、Prineville 1 では年間を通じて、このエコノマイザーが用いられる。外気がデータセンター内に導かれ、サーバーの頭上を通過しながら熱を吸収し、その後に再循環されるか、屋外に排気されるかというかたちをとる。一般的に、このシステムは、クーリング・タワーにおける無駄を最小化する。そして、藻のような生物の混入に対処するための、化学的な処理も不要となる。

The second stage of cooling occurs via the direct ECH misting system. The ECH system drops the temperature of the air significantly via phase change of liquid water to water vapor in the direct path of supply air to the data hall. Evaporative cooling technology has been used for thousands of years for built environments. Perspiration is also a simple example of evaporative cooling.

冷却のための第二段階は、ECH ミスト・システムのダイレクトな適用によるものである。この  ECH システムは、水から水蒸気への変換による劇的な温度の低下を、データセンター・ホールへ流れ込む空気に対して、ダイレクトに適用するものである。水蒸気によるクーリング・テクノロジーは、何千年にわたって、環境のために用いられている。 また、発汗も、水蒸気によるクーリングの、シンプルな例である。

The ECH system is composed of the following equipment:

  • Water storage tanks
  • Booster pumps
  • Carbon filters
  • Water softeners
  • Reverse osmosis (RO) water purification skids
  • RO water storage tanks
  • Distribution pumps
  • Misting system pump skids
  • Mist eliminator
  • Water polishing system

この ECH システムは、以下の装置により構成されている:

  • 貯水槽
  • 昇圧ポンプ
  • 硬水軟化剤
  • 逆浸透圧(RO:Reverse Osmosis)浄水スキッド
  • 逆浸透圧(RO:Reverse Osmosis)貯水槽
  • 分散型ポンプ
  • ミスト・システム・ポンプ・スキッド
  • ミスト除去器
  • 水洗浄システム

The booster pumps take water from the outdoor water storage tanks and pump the water through carbon filters for initial filtration. Water softeners then precipitate calcium, magnesium, and other minerals. Reverse osmosis (RO) skids then further purify the water of total dissolved solids. Our measurements indicate that 75% of the water brought into the data center is used for cooling (3 out of 4 parts of RO water are used for product), while the remaining 25% is blown down. The main purpose of the RO system is to purify the water to minimize the potential to clog the misting nozzles, as the ECH system includes thousands of high pressure misting nozzles with 150 micron diameter orifices, and using untreated water can create a maintenance issue because it can clog the nozzles.

ここで用いられる昇圧ポンプは、戸外の貯水タンクから水を汲み上げ、また、カーボン・フィルターによる最初のろ過を介して、水を送り出す。 続いて、硬水軟化剤により、カルシウムやマグネシウムなどの鉱物を沈殿させる。 さらに、逆浸透圧(RO:Reverse Osmosis)浄水スキッドにより、水中に溶解した物質を完全に浄化する。 私たちの測定によると、データセンター内まで取り込まれ、冷却に用いられる水は全体の 75% であり(RO 水の 3/4 が運用のために用いられる)、また、残りの 25% は廃棄される。 この RO システムの主たる目的は、ミスト・ノズルを詰まらせる可能性を最小に抑えるための、水の浄化にある。なぜなら、この ECH システムのミスト・ノズルは 150 micron 径であり、数千気圧というレベルの圧力がかかるからである。つまり、完全な浄化処理を行わない水を用いると、ノズルを詰まらせる可能性が高まり、メンテナンスの問題を引き起こすことになる。

Prineville 1′s misting system.
(Photo by Alan Brandt.)

Following purification, the RO product water is pumped into RO water storage tanks. Distribution pumps then pump the RO water at 40 PSI up to misting system pump skids that pump the water into stainless steel piping at 1000 PSI upon demand to meet temperature or humidity setpoints. The misting pump skids are equipped with variable frequency drives (VFDs) that can provide very fine-grained control of the misting system for accurate temperature and humidity controls.

浄化された後の水は、 つまり RO 生成された水は、RO 貯水槽に送り込まれる。 続いて、分散型のポンプが、ミスト・システムのポンプへ向けて、40 PSI まで加圧した RO 水を送り込む。 さらに、ミスト・システムは、要件である温度と湿度に合致する 1000 PSI の圧力で、ステンレス・パイプへ RO 水を送り込む。このミスト・ポンプは、温度と湿度を正確にコントロールするために、VFD(Variable Frequency Drives:可変周波数ドライブ)を用いた、きわめて微細な調整を可能にする。 

The stainless steel piping is routed to the misting nozzles, which are set up in an array, where the nozzles atomize the water, maximizing the misting water surface area – which in turn maximizes the evaporation rate. Approximately 85% of the misted water evaporates into the supply air stream. The remaining 15% is recaptured in a mist eliminator that is downstream of the misting nozzles. The recaptured RO water is put through a micron filter and UV lamp and then brought back to the RO water storage tanks, which is another method of water conservation designed within the system. The air is then delivered into the data center via fans that push the air down dry wall supply airshafts.

このステンレス・スチールのパイプは、水を霧状にするノズルの縦列へ向けて配管される。 こうして、ミスト生成のためのミスト散布面を最大化し、また、揮発レートを最大化する。 霧状にされた水の、約 85% がエアー・ストリームの中に取り込まれていく。 残りの 15% は、ノズルの下床に設置された、ミスト除去器により回収される。 そして、回収された RO 水は、1 micron のフィルタと、UV ランプを介した後に、RO 貯水槽へと戻される。それは、このシステムで設計されている、もう1つの水保全の方式である。 そして、冷やされた空気は、水分を除去するための通気孔を持ったドライ・ウォールへ通過し、ファンによりデータセンター内へ送り込まれる。

The end result is a mechanical system that is more water efficient than a typical chilled water/cooling tower data center mechanical system. The design of Prineville 1 inherently uses less water as we require less hours of “cooling” since the OCP mechanical system uses free cooling via economization and can operate at higher temperatures. Higher operating temperatures require less energy to cool the air Additionally, the ECH system consumes less water – it’s a more-direct method of heat transfer to the supply air into the data hall, as it’s in the supply air stream, rather than a cooling tower that requires blow down.

最終的な結論として、このメカニカル・システムの水利用効率は、一般的なデータセンターにおける、チラーとクーリング・タワーの組み合わせに勝るものとなった。 Prineville 1 のデザインは、年間における冷却の期間が短ければ、その分だけ水の消費も抑えられるシステムとなっている。なぜなら、OCP のメカニカル・システムは、エコノマイザーによるフリー・クーリングを用いており、また、一般よりも高温での稼働にも対応しているからだ。 より高温での稼働は、空気を冷やすための電力使用量を抑制する。 それに加えて、この ECH システムは、水の消費量を根本的に抑制する。なぜなら、大量の風力を用いるクーリング・タワーと比較して、データセンター内に供給される空気に対して、効率の良い熱伝導の方式をダイレクトに適用できるからである。

Reporting WUE in the Future

Facebook will continue to release WUE metrics on a quarterly basis for all our data centers. The WUE for the second building at our Prineville data center should be available next year, when that building is online. Facebook is also working on WUE metrics for our Forest City, North Carolina, data center, and will report once we have enough data.

Facebook は、その全データセンターにおける WUE 測定に関して、四半期ごとのレポートを提供し続けていく。 Prineville データセンター 2号棟における WUE は、稼働が予定されている来年には提供できるはずだ。さらに  Facebook は、Forest City, North Carolina データセンターにおいても、同様に WUE 測定に取り組んでいる。 そこでも、十分なデータが取得された段階で、レポートを提供する予定だ。

If you’re interested in learning more about how we designed our Open Compute data centers, download the electrical and mechanical specifications from the Open Compute website. To join the conversation, subscribe to the data center design mailing list If you’re interested in helping the industry tackle these efficiency issues and more, get involved with the Open Compute Project.

もし、Open Compute データセンターのデザインについて興味があるなら、Open Compute Web サイトから、Electrical and Mechanical Specifications をダウンロードして欲しい。 また、ディスカッションに参加してもらえるなら、データセンター・デザイン・メーリングリストをサブスクリプトして欲しい。 さらに、このエネルギーの有効利用に取り組む、私たちの業界に対して協力してもらえるなら、Open Compute Project に参加して欲しい

ーーーーー

imageこの記事を読むまで、このミスト・システムが、これほど重要なものだとは思っていませんでした。 きわめて小径のノズルから、人工の霧を高圧で吹き出すためには、こんなに手間のかかる浄化が必要なのですね。 先日の、Google 海水冷データセンターとは、また別の切り口からの水利用に興味シンシンです。巨大データセンターを、一切のチラーを用いずに、水の力で冷やしていこうとする Facebook と Google に拍手です。 ーーー image

ーーーーー

<関連>

Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?
詳細な解説つきの Facebook Oregon DC フォト・ツアー
Facebook Oregon DC の、第2期工事が早まるらしい
Facebook Oregon データセンターを、10分間の詳細ビデオで ど~ぞ!
Open Compute が創りだす、新世代 Web のためのビジネス・モデルとは?
Open Compute が1歳になったが、想像する以上に遠大な思想である

 

Google がフィンランドに作った海水冷 DC とは?

Posted in .Selected, Data Center Trends, Energy, Google, Green IT by Agile Cat on August 28, 2012

Cheap Data Center… Green Data Center
http://wp.me/pwo1E-4Ey
by  Richi Jennings (richi) on 23-09-2011
http://h30565.www3.hp.com/t5/Feature-Articles/Cheap-Data-Center-Green-Data-Center/ba-p/429

image

Here are some great ideas to save you money and reduce your CO2 emissions. Reducing your electricity bill by improving your energy efficiency has the added benefit of being greener.

データセンターにおけるコストを抑え、また、CO2 排出を減らすための、いくつかの素晴らしいアイデアを紹介しよう。 エネルギー効率の改善により電気の使用料を減らせば、環境の面でもメリットが生じることになる。

Similarly, paying attention to the capital cost of data center equipment — both the servers themselves and the cooling plant — can reduce the amount of “embodied” energy used. The energy used to run a data center is only part of the story; it’s also important to consider the energy that was already used to manufacture the equipment.

同様に、 サーバーとクーリングのプラントで構成されるデータセンター施設に対する、資本コストに注意を払うことで、消費される全体的なエネルギー量を減らすことも可能となる。 データセンターを動かすために使用されるエネルギーは、前提となるストーリーの一部に過ぎない。 つまり、一連の施設を構築するために、すでに消費されたエネルギーについて考えることも、それと同様に重要なことである。ーーー 23-09-2011

Seawater Cooling

imageWhen Google designed its new $300 million Hamina datacenter , in the south-east of Finland, it discovered a natural resource for equipment cooling, right on its doorstep. Cold seawater.

Google が Finland の南東に、新たに  $300 million を費やすHamina データセンターを設計するとき、その戸外に広がる、クーリング装置のための天然リソースを発見した。 それは、冷たい海水である。

Hamina is on the coast of the Gulf of Finland, about 100 miles east of Helsinki. Google realized it could implement an idea that’s sometimes called seawater air conditioning (SWAC) or deep-water source cooling. According to Joe Kava, Google’s senior director of datacenter construction and operations, this has never been successfully done  at the scale that Google’s using it.

Hamina は、Helsinki から約 100マイル 東にある、Gulf of Finland の海岸に面している。 Google は、Seawater Air Conditioning (SWAC) もしくは Deep-Water Source Cooling と呼ばれるアイデアの、実装が可能であることに気づいた。 Google のデータセンター構築/運用 Senior Director である Joe Kava によると、Google が使用するスケールでは、これまで成功したことの無いものだという。

The idea is to draw in cold water from about 25 feet below the surface, which remains at just a few degrees above freezing all year round. The water is passed through a heat exchanger to cool the air, which then extract waste heat from the server racks in the conventional way.

そのアイデアとは、約 25フィートの水深から、年間を通じて氷点よりも僅かに高い、冷たい海水引き入れることである。この海水が熱交換器を通過することで空気が冷やされ、その後は、従来からと同じ方式で、サーバー・ラックからの排熱を取り除くことになる。

A heat exchanger in the Hamina datacenter (source: Google)

Sounds simple, but there are the inevitable, Devilish details:

単純に聞こえるが、いくつかの必然的なものがあると、Devilish は詳述する:

Seawater contains foreign bodies, including sand, driftwood, and… well… critters. Filtration is needed, so you don’t clog up your heat exchangers. Keeping the filters clean is of course very important; your water flow rate drops with a clogged filter. Google uses four levels of filtration, from coarse to fine. Each filter stage and the heat exchangers themselves are designed so that they can be cleaned in-place, by temporarily isolating one redundant subsystem and flushing it with a cleaning solution.

海水には、砂や流木だけではなく、動物をも含めた、異物が浮遊している。 つまり、フィルタリングが必要とされるが、それにより、熱交換器の入り口を塞いではいけない。 もちろん、フィルターをきれいにしておくことが最重要である。 つまり、フィルタの目詰りにより、水流量率は低下してしまう。 Google は、粗いものから、微細なものまで、4段階のフィルタを組み合わせている。 それそれのフィルター・ステージと熱交換器は、それを取り外すこと無く、クリーンアップできるように設計されている。冗長性のあるシステムを一時的に分離して、対象となる部分を清掃液で洗浄することになる。

Seawater promotes corrosion, because it contains dissolved salts. Conventional heat exchangers won’t last long filled with salt water, unless they’re carefully designed. Google used materials such as titanium for the exchangers and fiberglass for the pipework. Use of fiberglass pipe also requires pressure regulation devices, in case of pump failure, because of the fluid hammer effect . (Note also that Gulf of Finland is part of the Baltic “Sea,” which is actually more like a huge, brackish lake, or enormous estuary. The salt content of the water is less than the neighboring North Sea, into which it flows.)

海水には、もちろん塩分が含まれるため、どうしても腐食が促進されていまう。 つまり、慎重にデザインされない限り、塩水で満たされる従来型の熱交換器は、その耐用年数が短くなってしまうだろう。 Google は、この熱交換器のためにチタンのような材質を用い、また、配管のために光ファイバを使っている。 さらに、光ファイバのパイプは、ポンプの故障などにより生じる、流体ハンマー効果に対応するために、水圧調整装置を必要とする。 (注記: Gulf of Finland は、巨大な塩湖あるいは巨大な河口のような、バルト海の一部である。 つまり、隣接する北海と比べて塩分の濃度が低い)

image

Cooling the heated water is important, because returning heated water to the sea would be ecologically unsound. Without cooling the returned water to a temperature close to the original, you’d be replacing one eco problem — CO2 emissions — with another — damage to the aquatic ecosystem. Google solves this problem by only using a small proportion of the inlet water for the heat exchangers; the bulk of the water goes to cooling the heated outlet water. The hot and cold water is mixed in a process that Google confusingly calls “tempering.” The mixed water is now only a little warmer than the original, and can be safely returned to the sea.

温められた水を冷やすことが重要なのは、そのままの温水を海に返すのでは、エコロジー的に不合理を生じるからだ。 元々の水温に近づけずに海へ戻すと、CO2排出という問題を、水生エコシステムへのダメージという問題に、置き換えるだけになってしまう。Google は、この熱交換器の入水口を小さく絞り込むだけで、この問題を解決している。つまり、熱交換器の出水口からの暖められた水を、大量の水で冷やすのである。 具体的には、Google が「焼もどし」と呼ぶプロセスで、温かい水と冷たい水が混ぜられるのだ。

The infrastructure is expensive, because it requires engineering large inlet tunnels more than 25 feet below ground, in order to reach deep water, which is at a stable, cold temperature. Building this from scratch would be a major capital investment, which may not have offered a return in lower energy usage. Similarly, the embodied energy used in construction may not be less that the energy saved. The risk is: You may end up emitting more CO2 by doing this. In Hamina, Google built the datacenter on the site of an old paper mill, which already had suitable water tunnels, because large amounts of water were used in the paper-making process.

このインフラストラクチャが高価な理由は、低温で安定している海水を取り込むためには、海面下 25フィートに達する取水口が必要であり、そのためのエンジニアリングが要求されるからである。 それをゼロから作ることは、きわめて大きな資本投資であり、また、低エネルギーの利用という観点で、メリットを提供しなかったかもしれない。 同様に、建築で費やされるエネルギーを考えると、全体として消費量のほうが大きくなってしまったかもしれない。 そこでのリスクは、このプロジェクトを推進することで、より多くの CO2 を排出するかもしれないという点にある。 この Hamina において Google は、印刷のために大量の水が必要とされるため、すでに適切な取水トンネルを設置していた、古い製紙工場にデータセンターを作っている。 そして、冷却に用いられた海水は、元の水温よりも少し高めとなるが、問題なく海に返すことが可能となる。

Google expects that, when fully operational, the power usage effectiveness  (PUE) for its new datacenter will be around 1.1, which means that it uses only 10% additional power for cooling, lighting, etc. — an impressive, class-leading figure.

このデータセンターが完全に稼働するときの、PUE に関する Google の期待値は 1.1 程度だという。それは、冷却や照明などに消費される付加的な電力が、わずか 10% であるり、また、このクラスのデータセンターにおけるアドバンテージが得られていることを意味する。

Hamina is just one of three chiller-less , or free cooling ideas that Google has been demonstrating at its European data center locations:

Google がヨーロッパ・エリアで例証している、自然排熱型データセンターにおいて、3つのチラー・レスの一角を、この Hamina が占める:

ーーーーー

image先日の『 Google データセンターを埋め尽くす、独自サーバーのコンセプトとは? 』と、『 無限のストレージを、$4/月で提供する Backblaze の秘密とは? 』に続き、HP INPUT OUTPUT チームが提供する、素晴らしいポストから切り出したものです。 これら、3つのタイトルが 1つのコンテンツにまとめられているのですが、かなりの分量なので、こうして 3回に分けて抄訳をポストしたわけです。いずれも、たいへんな力作であり、Agile_Cat としても懸案事項となっていた調べものが、まとめて済んでしまい、とても有り難く思っています :) よろしければ、以下のリンクも ご参照ください。 ーーー image

ーーーーー

<関連>

Google がフィンランドに構築する海水冷却 DC の、改造風景を Youtube で
Google が大規模データセンターをフィンランドに構築
Google データセンターの水冷設備
46MW を湖水で冷却する、アルプスの巨大データセンター
なぜ、Google はアジアの海底ケーブルに投資する?

 

%d bloggers like this: