Agile Cat — in the cloud

OCP データセンターと、高温多湿気候との関係について

Posted in .Selected, Data Center Trends, Energy, Facebook, Open Compute by Agile Cat on March 14, 2013

Cooling an OCP Data Center in a Hot and Humid Climate
http://wp.me/pwo1E-5Lx
November 14, 2012 · Posted by Daniel Lee
http://www.opencompute.org/2012/11/14/cooling-an-ocp-data-center-in-a-hot-and-humid-climate/

image

Building a data center based on Open Compute Project designs in a relatively hot and humid area like Forest City, North Carolina, presented some interesting challenges. Chief among them, of course, was whether the 100% outdoor air cooling system Facebook debuted in our Prineville, Oregon, facility could operate as efficiently in an environment where the ASHRAE 50-year maximum wet bulb temperature is 21% higher, at 84.5°F instead of 70.3°F.

Open Compute Project デザインに基づいたデータセンターを、Forest City, North Carolina のような、比較的に高温多湿なエリアに構築することは、いくつかの興味深い課題を提起する。 もちろん、その中で最たるものは、Prineville, Oregon で Facebook がデビューさせた 100% の外気冷却方式が、適用できるか、できないか、という点であった。 具体的な論点は、ASHRAE の 50年 最高湿球温度で比較すると、21% も高温な環境へと移行させることである。 つまり、70.3°F(21.3°C)の環境から、84.5°F(29.2°C )の環境へ移行しても、そのファシリティが運用できるかという点に集約される。

The design we use in Prineville works great in central Oregon – a high desert plain with hot, dry summers and cool evenings and winters. These are ideal conditions for using evaporative cooling and humidification systems, instead of the mechanical chillers used in more-conventional data center designs. And ASHRAE 50-year design weather maximums and bin weather data show that such a system is sufficient for even the hottest summer days in central Oregon.

私たちが Prineville で用いたデザインは、Oregon の中央に広がる大地の、熱くて乾燥した夏期と、冷込む夜間と冬期という気候の中で、すべてが順調に機能している。 そこは、数多くの従来型のデータセンター・デザインで使用される機械式のチラーに代えて、気化熱冷却と加湿システムを利用していくための、理想的なコンディションとなる。 そして、ASHRAE の 50年 気象測定結果と、Bin Weather Data が示すのは、Oregon 中央部であれば、こうしたシステムが、暑い夏の日であっても充分に機能する点である。

When we started looking at Forest City, the bin weather data suggested that refrigeration might not be required, but ASHRAE 50-year design weather maximums suggested otherwise. We ultimately decided to install a direct expansion (DX) coil system in the facility, just in case it might be needed, but it was important to us to find a way to make the free cooling system work — the potential efficiency gains to be found in keeping those DX units switched off were just too great to ignore.

私たちが Forest City に注目し始めたとき、Bin Weather Data は機械式の冷却が不要かもしれないとしたが、ASHRAE の 50年気象測定は別のことを示唆した。そして、最終的には、このファシリティに DX(Direct Expansion)コイル・システムをインストールすることに決めたが、その利用は必要とされるケースに限定される。つまり、自然冷却システムを機能させる方式を探し出すことが、私たちにとって重要だったのである。そして、潜在的な効率は、DX ユニットのスイッチを OFF にしておくことで見いだされるが、無視するには余りにも大きなものとなる。

↓ クリックで拡大 ↓

Psychrometric Chart: Bin weather data plotted on Rutherfordton (approx. 6 miles NW of Forest City) suggests that DX cooling is probably not necessary in a typical year; but ASHRAE MAX WB suggests the opposite.

湿度線図:Bin Weather Data による、Rutherfordton (approx. 6 miles NW of Forest City) のプロット・データが示唆するのは、一般的な年であれば、DX コイルが不要だろうというものだ。 しかし、 ASHRAE MAX WB は、正反対の結果を示唆する。

To try to make the free cooling system work in Forest City, we expanded the maximum allowable temperature and humidity conditions for our server environment. Because wet bulb temperatures are higher in western North Carolina than they are in central Oregon, we set the upper end of the server inlet temperature range at 85°F, instead of at 80°F. And because of the higher humidity in North Carolina, we expanded the relative humidity (RH) maximum from 65% RH to 90% RH.

Forest City に合った自然冷却のシステムを構築するために、私たちはサーバー環境における最大許容温度と湿度条件を拡大した。 つまり、North Carolina 西部での湿式温度が、Oregon 中央部より高いため、サーバー・インレットの上限を、80°F(26.7°C)から 85°(29.5°C)に設定し直したのだ。 そして、North Carolina の多湿な気候に合わせるために、相対湿度(RH)の上限値も、65% RH から 90% RH に拡大した。

Summer 2012 in the US presented an excellent test of the design. July 2012 was the second hottest month on record in North Carolina, in the third hottest summer ever documented in the continental US. At one point the dry bulb temperature topped 100°F outside the data center.

2012年のアメリカの夏は、このデザインにとって格好のテスト環境をもたらした。 2012年7月は、North Carolina の観測記録上、3番目に暑い夏であり、また、アメリカ本土に関して文書化された中では、2番目の猛暑を記録した。 この期間においては、データセンターの外側に設置された乾湿温度計が、100°F(37.8°C)を超えることもあった。

But despite the record-breaking dry bulb temperatures, we didn’t run the DX coils at all this past summer. If you look at the trend data, it shows that when the record hot days occurred, relative humidity was low, allowing the misting system to provide all the needed cooling. The chart for July 1 illustrates this.

しかし、この記録破りの乾湿温度にもかかわらず、この夏を通じて、DX コイルを動かすことはなかった。 以下の記録的な猛暑日の、データの推移を見れば分かってもらえるが、相対湿度が下がるため、ミスト・システムを稼働させて、必要とされる冷却効果を達成できている。 この、7月1日のチャートが、それを例証している。

↓ クリックで拡大 ↓

Outside Air DB Temperature: 07/01/12 was one of the hottest days of the summer, with a high of 102° F DB. But it didn’t require DX cooling, because the coincident humidity was 26% RH.

Outside Air DB Temperature:  07/01/12 は、乾湿温度で 102°F(38.9°C)を記録するという、 この夏における猛暑日の1つであった。しかし、 DX 冷房を使わずに済んだのは、気温の上昇に応じて、湿度が 26% RH まで低下したからである。

We also saw several days of high relative humidity over the course of the summer. High RH is potentially problematic in an evaporative cooling system, as our ability to cool air by adding water decreases as the RH of the incoming air increases. But, as illustrated by the chart for June 25, the dry bulb temperature tended to be low on the days RH was high this summer – meaning that we didn’t need to cool it before sending it into the data hall. (In fact, in some cases we actually added hot return air from the data hall to the supply air, to bring the relative humidity down within 90% RH cap.)

私たちは、この夏を通じて、相対湿度の高い日にも注目してみた。RH が高いことは、気化熱冷却システムにとって、潜在的な問題である。なぜなら、外気の RH が増加するにつれて、空気を冷やすための水を減らす必要があるがらだ。 しかし、6月25日のチャートが例証するように、この夏においては、乾湿気温が上昇する日に、RH が低下するという傾向があった 。つまり、この外気をデータホールに送る前に、それを冷やす必要がなかったことを意味している。 (実際のところ、キャップ値である 90% RH よりも相対湿度を下げるために、データホールから暖気を、供給する空気に加えるケースもあった)

↓ クリックで拡大 ↓

Outside Air Relative Humidity: The most humid day of this summer was 06/25/12, with a 97% RH. But it didn’t require DX cooling, as the coincident DB temperature was 68°F.

Outside Air Relative Humidity: この夏で、最も多湿な日は 06/25/12であり、その日の値は 97% RH であった。しかし、DB 温度も 68°F(20°C)に下がったため、DX 冷房は必要なかった。 

So it turns out this design can work in relatively high heat and humidity, and it can work as efficiently as it does at Prineville. In fact, the power usage effectiveness (PUE) for Forest City clocked in at 1.07 this summer, versus Prineville’s 1.09 during roughly the same period. It remains to be seen how efficiently the system would perform if both the DB temperature and the WB temperature were to simultaneously exceed the limits we’ve set, but the likelihood of such an event in this region is low, and its impact on annualized PUE would likely be minimal.

したがって、それでこのデザインが、比較的に高温多湿の環境でも、機能することが分かる。 そして、Prineville のケースと同様に、効率を高めることが可能である。 実際のところ、この夏における Forest City の PUE は 1.07 を記録しているが、同時期の Prineville は 1.09 であった。 もし DB 温度と WB 温度の双方が同時に、私たちが設定した限界をを超えるなら、このシステムが運用効率について、検証すべき視点が残されるだろう。しかし、この地域において、そのような現象が起こる可能性は低い。また、そのような状況になったとして、年間 PUE に対する影響は、おそらく最小で済むだろう。

↓ クリックで拡大 ↓

07/01/12 – 07/07/12: One week’s worth of trend data shows that DX cooling wasn’t required as dry bulb was high, but RH was low enough for evaporative cooling.

07/01/12 – 07/07/12:  1 週間の稼働におけるデータの傾向は、乾湿気温が上がれば RH が下がるという、気化熱冷却に適したものであり、また、DX 冷房が不要であることを示している。

If you’re interested in learning more about these designs and their performance, be sure to register for the upcoming Open Compute Summit, which will be held in Santa Clara, California, on January 16-17, 2013. We hope to see you there!

これらのデザインと性能について、さらに多くを知りたいなら、2013年1月16-17日に Santa Clara, California で開催される、Open Compute Summit に参加して欲しい。 そこで会いましょう!

Dan is a mechanical engineer at Facebook.

ーーーーー

TAG indexClick It ⇒

I found out an useful weather data in Japan Meteorological Agency, which describe the outside Air DB Temperature in TOKYO: 08/02/12 was one of the hottest days of the summer, with a high of 93.2° F (34.0°C) DB. But the coincident humidity was 41% RH. For the details, please click here. 

気になったので、気象庁の Web を調べてみたところ、日本各地の詳細データが見つかりました。2012年8月2日の東京は、日中の最高気温が 34.0°C まで上がりましたが、そのときの相対湿度は 41% RH まで下がっています。詳細については、ここをクリックしてみてください。

ーーーーー

>>>  Open Compute Japan の FB ページです! イイネをくださ~い! <<<

ーーーーー

<関連>

詳細な解説つきの Facebook Oregon DC フォト・ツアー
Facebook の、次の巨大データセンターが North Carolina に!
Facebook Oregon データセンターを、10分間の詳細ビデオで ど~ぞ!
Facebook の爆発的な成長と、それを支えるデータセンター戦略
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?
Facebook の 巨大 DC を気化熱で冷やす、ミストの秘密について説明しよう
Facebook は Open Compute を、コ・ロケーションにも適用する
Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり

Comments Off on OCP データセンターと、高温多湿気候との関係について

Open Compute Japan の FB ページが始まりました!

Posted in .Chronicle, .Selected, Data Center Trends, Facebook, Open Compute by Agile Cat on February 9, 2013

2010年 4月から 現在までを、Timeline で ど~ぞ
http://wp.me/pwo1E-5Dq

image

2013年 1月 16日(日本では17日)にスタートした、Open Compute Asia Pacific ですが、その Facebook ページも、ようやく本格的に動き出すことになりました。 Japan ではなく Asia Pacific なの? ・・・という件ですが、Asia の中の Japan という位置づけで、この際、細かい話は、どちらでも構わないというのが、本家と分家の合意のようです Smile

そして、本題の Facebook ページですが、2010年 4月からの Timeline として構成され、これまでの Open Compute Project の動きと流れが、一目で分かるようになっています。 すべてが日本語ではないというか、大半が英語なのですが、ときおり登場する翻訳ポストを拾い読みしてみてください。 それだけで、Open Compute の素晴らしい理想と、重要性と、そして力強さを、分かってもらえると思っています。

↓ クリックで Facebook ページヘ ↓

image

↑ よろしければ イイネ を・・・↑

この Open Compute Timeline の、一番末尾の方に、つまり、2010年 4月のポストにですが、こんな一文を見つけました。

The ultimate goal of the Open Compute Project, however, is to spark a collaborative dialogue. We’re already talking with our peers about how we can work together on Open Compute Project technology. We want to recruit others to be part of this collaboration — and we invite you to join us in this mission to collectively develop the most efficient computing infrastructure possible.

Open Compute Project における究極のゴールは、コラボレーションのための会話を引き起こす点にある。私たちは、すでに同業者との対話を開始しており、Open Compute Project テクノロジー上での協調を模索している。私たちは、より多くの人々を、このコラボレーションの中に加えていきたい。そして、最も効率の良いコンピューティング・インフラストラクチャを、共同で開発していくというミッションに、あなたにも加わって欲しいと願っている。

ーーーーー

TAG indexコンピューティング・インフラストラクチャに関する議論が、ほんとうに必要であり、そこを無益な競合を繰り返してはいけないという、強い思いが伝わってきますね。 この Open Compute Project が立ち上がったときに、『 電力事情も含めた地球環境を考えれば、インフラストラクチャは協調のレイヤとなるべきであり、その上位に競合のレイヤが構成されるべきだ 』という、Mark Zuckerberg の発言がありました。それから 2年も待たずに、多くの支持を集め、これだけの勢いを持った OCP は、やはり理に適っているのですね。image

ーーーーー

<関連>

Open Compute Summit 2013 – Directory
Open Compute Summit 2013 : エコロジーと Asia Pacific
Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
Facebook は Open Compute を、コ・ロケーションにも適用する

%d bloggers like this: