Agile Cat — in the cloud

どのようにして、Google Energy は Green Data Center を目指すのか?

Posted in Energy, Google, Green IT by Agile Cat on April 30, 2010

How Google Energy Might Green Its Data Centers
April 29th, 2010 : Rich Miller
http://www.datacenterknowledge.com/archives/2010/04/29/how-google-energy-might-green-its-data-centers/?utm-source=feedburner&utm-medium=feed&utm-campaign=Feed%3A+DataCenterKnowledge+%28Data+Center+Knowledge%29&utm-content=Google+Feedfetcher

DC Knowledge

There’s been lots of speculation about Google Energy, a new subsidiary the Internet giant has formed to buy and sell power on the wholesale market. At the Earth2Tech Green.Net event today, Google energy czar Bill Weihl said most of the speculation is overblown, joking that the company had no plans to emulate Enron as an energy trading power broker.

インターネットの巨人である Ggoogle の子会社として設立され、電力マーケットにおける卸売を行う Google Energy については、さまざまな憶測がある。 2010年 4月 29日に開催された Earth2Tech Green.Net イベントにおいて、 Google のエネルギー部門を担当するBill Weihl は、エネルギー・ブロカーとして Enron を真似るような計画はないという冗談を交えながら、それらの憶測の大半は大袈裟であると発言した。

But Weihl laid out a scenario in which Google Energy might help the company access renewable energy to support its huge data centers.

その一方で Weihl は、Google Energy が再生可能エネルギーへのアクセスを提供することで、Google の大規模データセンターが支援される可能性を示唆する、シナリオについて説明した。

“Supposing we had a facility scomewhere in the Midwest and have power contracts,” Weihl said, noting that Google typically signs multi-year utility contracts. “Let’s say there’s a developer who wants to build a wind farm on land nearby. We’d love to buy the power from that wind farm.”

Weihl は、「私たちが Midwest 設備を有し、電力の契約も持っていると仮定する。 さらに、その近くで、風力発電所を構築したいデベロッパーがいるとしよう。 その場合には、その風力発電所から、喜んで電力を買うことになるだろう」 と発言し、また、Google は複数年にわたる契約書に署名するとも指摘している。

But for the project to succeed, the developer would likely need Google to sign a contract committing to buy the wind power it generates – which could obligate Google to pay for energy before its existing multi-year contract expires. Paying twice for energy due to overlapping contracts isn’t very efficient.

このプロジェクトを成功させたいデベロッパーは、生成する電力を Google が買い取ってくれる契約を必要とするだろう。 さらに、その多年にわたる契約が期限が切れる前に、その電力に対する支払を義務づけるだろう。 重複する契約と、ニ回の支払いは、効率的ではない。

With the ability to buy and sell power, Google Energy could sign a contract to buy the power generated by the local wind farm, and then resell that power on the open market until Google’s existing utility deal expires and the company can use the renewable pwoer in its own facility.

しかし、Google Energy の電力売買権を用いれば、風力発電会社から一度買い取ってから、Google に転売することができる。 そして、もし、Google が独自の更新可能エネルギーを保有するなら、風力発電会社からの電力は、契約が切れたあとでもオープンなマーケットに提供されることになる。

ーーーーー

訳してみたけど、そりゃそうでしょう、、、という記事でした ^^);  なお、添付の Youtube は3月の Bill Weihl さんですが、コチラのほうが面白いかも? ーーー A.C.

ーーーーー

<関連>
Google は電力事業にも参入するのか?
Google データセンターの水冷設備
なぜ、Google はアジアの海底ケーブルに投資する?

10万 PVs うれしい ニャ~~~

Posted in .Chronicle by Agile Cat on April 29, 2010

ありがとうございます。

image

いやぁ~~~ 10万 PVs なんて、最初はまったく考えてもいなかったので、とても嬉しいです。 みなさんが見に来てくれるから、Agile_Cat も頑張ってポストするという好循環の結果だと思っています。1日 1本のポストが精一杯のところですが、少しでも それが、情報共有を進めるものになればと願っています。更新情報は Twitter で流れていきますので、そちらのフォローも よろしく お願いします。

それと、徐々にですがカテゴリも増えてきていまして、NoSQLApple だけではなく、Green IT や、Facebook などといったものも出来ましたので、良かったら 見てください。さらに! 初心者ではございますが、Agile_Cat の Facebook なども、右ペインの小さなアイコンからリンクさせましたので、よろしければ、そちらも ど~ぞ。

今後とも、よろしくお願いしま~~~す!

Tagged with: , , ,

Microsoft コンテナ・データセンター IT-PAC のコストを見積る!

Posted in Data Center Trends, Green IT by Agile Cat on April 28, 2010

LXスタイルさんが、とても興味深い情報を提供されています
http://lxs.jp/wordpress/?p=156

4月25日の日曜日だったと思いますが、LXスタイルさんのブログに、Microsoft IT-PAC のコストを見積るという、とてもセンセーショナルなポストがありました。 同社のご了解を得て、その概要を以下に転記します。 それをご覧頂く前に、この IT-PAC のコンセプトについて、ちょっと推測してみたいと思います。

IT-PACK-2

まず、これまで最先端とされてきた密閉型のコンテナから、開放型のコンテナに変化している点が、最大の違いです。 また、Google コンテナ第1世代などに見られる、40フィートから、20 フィートへと小型化している点も見逃せません。 ひょっとすると、側壁を開放型にすることで、強度的な制約が生じるのかもしれませんね。

開放型にすることで得られるメリットは、自然空冷による省電力化です。 これは、単にコストという面だけではなく、CO2 の排出量にまでおよぶ問題を緩和するものになるでしょう。 まず、「Microsoft コンテナ DC 第4世代 ITPAC を Silverlight で!」 をご覧いただき、この自然空冷の方式をご確認ください。

以下、LX スタイルさんのブログからの転記です:

  製造コストの概算  
  1. 筺体製作、各種金具、ブラケット、その他   800万円 (程度)
  2. 塗装費用は筺体関係の30%程度で   240万円
  3. 制御盤   260万円
  4. トランス   150万円
  5. 計装関係(各種センサーなど)   300万円
  6. 電気配線工事   130万円
   

合計

1880万円

サーバーは、Xeon L5640 2CPUを 20台×6ラック。
1ラックコアは、960だから 仮想サーバーとして 5760VPS。
ストレージを別途設置するとしても 5000VPSは可能。

サーバーコストはストレージに影響されますが、1台50万円として、1ラック1000万円、合計6000万円となります。コンテナを収納する建物や、ルーター、回線などを含んでも1億円ぐらいから クライドサービスをスモールスタート出来ます。

Microsoft をはじめとして、Google や Yahoo などの大手のクラウドプロバイダーにとって、効率のよいデータセンター運用は、とても重要な課題となっています。その意味で、空調設備に関する製造コストと電力使用量をカットするという発想は、とても斬新であり、また、理想的なものとなります。

詳細につきましては、LX スタイルさんの 「MSコンテナ ITPAC のコスト」 をご参照ください。 空調設備に関するコストや、そのために消費される電力の計算まであって、とても面白いですよ。 ーーー A.C.

ーーーーー

<関連>
Microsoft は IT-PAC で コンテナ・データセンターのコストを半減!
コンテナ・データセンターは、いくらで作れるの?
Microsoft Chicago 特集
コンテナ・データセンターの イ・ロ・ハ by James Hamilton

Tagged with: ,

NoSQL 関連のポスト: April 16, 2010: Twitter や Cassandra など

Posted in NoSQL by Agile Cat on April 27, 2010

Hot Scalability Links for April 16, 2010
DateFriday, April 16, 2010 at 7:15AM
http://highscalability.com/blog/2010/4/16/hot-scalability-links-for-april-16-2010.html

High Scalability

先々週の Hot Scalability Links からの抜粋です。 面白そうなものだけを勝手な偏見でピックアップしていますが、上記の URL からたどると、この他にも 10本くらいのリンクがありますので、ぜひ、そちらも ご覧下さい。 ーーー A.C.

ーーーーー

Twitter gets a total of 3 billion requests a day via its API; 105,779,710 registered users; 300,000 new registered users a day; 180 million unique visitors a month; 55 million tweets a day.

これは、すでに Agile_Cat でも 「おおっ!と 驚きながら 数字で見る Twitter : Apr. 14, 2010」 というタイトルでご紹介しています。このスケーラビリティを支えているのが、Hadoop であり、Cassandra でありというわけです。

Who has the most servers? Google 1 million+; Intel 100K; 1&1 Internet 70K; Facebook 30K; Akamai 61K; Rackspace 56k+.

キープレイヤーで、ちょっとモレてしまっているところがありますが、たとえば Facebook を軸にしてみても、Intel や Akamai などが、かなりのサーバーを保有していることが分かります。

Cloud Computing Economies of Scale. James Hamilton gives a fabulous talk breaking down where the costs are in the cloud. It’s not where you may think. Higher utilization is the key. More here.

James Hamilton 先生の、MIX 10 でのビデオ・ストリーミングです。 Microaoft からみると OB の出演ということになりますが、こういうのはイイですね。

How Raytheon Researchers are Using Hadoop to Build a Scalable, Distributed Triple Store by Kurt Rohloff. Due to the inherent scalability of the Hadoop and HDFS approach in SHARD, the SHARD triple-store could potentially be used for extremely large datasets (trillions of triples). Also nice description of the query process.

このリンクは Facebook ですが、もともとは Cloudera のブログです。 見落としていましたが、面白そうなので連休の宿題にしたいと思います。

Cassandra Architecutre Internals

これは、まったく注釈がありませんが、A4 一枚くらいの分量で、General / Write path / Read path という感じでまとめられています。 これも、連休に読みたいと思っています。

ーーーーー

<関連>
かなり気になる、NoSQL 関連のポスト : Cassandra や CAP Theorem など
かなり気になる ScaleOut 関連記事 6本
High Scalability のホット・リンク集 : Cassandra@Twitter インタビューもあるよ!
High Scalability という面白いサイトが

Microsoft は IT-PAC で コンテナ・データセンターのコストを半減!

Posted in Data Center Trends, Green IT by Agile Cat on April 26, 2010

Microsoft To Cut Data Center Costs in Half
March 11th, 2010 : Rich Miller
http://www.datacenterknowledge.com/archives/2010/03/11/microsoft-to-cut-data-center-costs-in-half/

以前に、「Microsoft コンテナ DC 第4世代 ITPAC を Silverlight で!」 というタイトルでご紹介しましたが、IT-PAC のコスト感覚は、一言でいって スゴイに尽きます。 おそらく、これからのコンテナ・データセンター・アーキテクチャにおける、メインストリームになるのではないかと思えます。 ーーー A.C.

ーーーーー

DC KnowledgeMicrosoft’s data center containers are packed with thousands of servers. But perhaps the most important thing they are containing is cost. After years of investing up to $500 million in each data center project, Microsoft plans to spend about $250 million or less on each data center going forward.

Microsoft データセンターのコンテナには、何千というサーバーがパックされている。しかし、そこに取り込まれる最大の要素は、コストである。 Microsoft は個々のデータセンター・プロジェクトに、この数年の間に $500 を投資してきた後に、これからのデータセンターへの投資は、$250 以下に抑えることを計画している。

microsoft-chicago-containers

“I have a goal for the team to reduce costs by 50 percent or more in the next-generation builds,” said Kevin Timmons, who heads Microsoft’s data center operations team. “We’re on track to meet that goal. I can’t be any happier about that.”

「私たちのチームには、次世代のビルドでコストを 50% 以下に下げるというゴールを持っています。 そして、そのゴールを達成する軌道に乗っています。 しかし、楽観的にはなれません」と、Microsoft データセンター・オペレーション・チームのヘッドである Kevin Timmons は語る。

After a period of industry growth in which greater scale usually was accompanied by a higher price tag, Timmons said his goal is for Microsoft’s data center network to be “incredibly scalable at awesome cost effectiveness.”

通常より高い価格を持つ大規模スケールが、業界が成長する期間で用いられた後に、Microsoft のデータセンター・ネットワークにおけるゴールは「驚嘆に値する費用効果で信じられないほどにスケーラブル」であるべきだと、Timmons は発言している。

Containers Enable Design Innovation

The cost containment effort at Microsoft is driven by the company’s container-based data center design. Many data center professionals have debated the operational economics of data center containers in recent years. At Microsoft, the container – known as an IT-PAC, short for “pre-assembled compnent” – serves as the foundation of a broader shift to a modular, component-based design that offers cost-cutting opportunities at almost every facet of the project.

Microsoft におけるコストの抑制は、コンテナ・ベースのデータセンター・デザインにより促進される。近年において、数多くのデータセンター専門家が、データセンターのコンテナ運用における、経済的な側面ついて議論している。 Microsoft には、“pre-assembled compnent” を略した IT-PAC というコンテナが存在する。 そして、プロジェクトにおける大半の局面で、コスト・カットをもたらすモジュール形式/コンポーネントベースのデザインへと、大幅なシフトを実現するための基板として利用されている。

That starts with the building itself. Microsoft’s IT PACs are designed to operate in all environments, and employ a free cooling approach in which fresh air is drawn into the enclosure through louvers in the side of the container – which effectively functions as a huge air handler with racks of servers inside.

こうしたコスト・カットは、コンテナを構築することで始まっている。 Microsoft の IT PAC は、すべての環境で運用が可能であり、また、コンテナ側面に開けられたルーバーを介して、エンクロージャー内に新鮮な空気を取り込むという、コストレスの冷却アプローチを用いるようにデザインされている。 それはにより、サーバーのラック内で、膨大な空気の流れの制御を、効果的に行うことが可能となる。

This next-generation design allows Microsoft to forego the concrete bunker exterior seen in many data centers in favor of a steel and aluminum structure built around a central power spine. The data centers will likely have no side walls, although they will have roofs, which is a revision from earlier design concepts. Microsoft’s decision to leave the facility open to the air was guided by a research project in which the company housed servers in a tent for eight months.

この次世代のデザインにより Microsoft は、電源などが集中する位置に、スチールやアルミニウムを用いた構造体を好んで用いる、これまでにおける大半のデータセンターに見られる、コンクリートの要塞のような外観に先行することができる。このデータセンタは、側壁は持たないが屋根はあるという、早期のデザイン・コンセプトを修正したものとなる。 この、Microsoft の判断は、設備を外気に晒すというものであり、また、8カ月に渡りテント内にサーバーを収容するという、研究プロジェクトにより方向づけられた。

Less Capital-Intensive Construction

After the data center framework is completed, groups of data center containers can be added in phases as Microsoft needs to bring new capacity online to support its growing cloud computing operation. Timmons says this approach is less capital-intensive for Microsoft, allowing the company to start with a smaller up-front investment in construction, and spread expansion costs using a just-in-time model. This approach is enabled by the containers, which can be assembled and shipped quickly, arriving on-site pre-populated with servers.

このデータセンター・フレームワークが完成した後、 成長するクラウド・コンピューティング・オペレーションをサポートするために、Microsoft の新しいオンライン・キャパシティが必要になるにつれて、局面に応じたデータセンター・コンテナ・グループの追加が可能となる。 Timmons の発言によると、このアプローチは Microsoft にとってそれほど資本を必要とするなものではなく、構築に際して少額の投資から開始し、状況に応じたモデルを用いることで、コストを拡散することが可能なるとされる。 このアプローチは、アセンブリングと出荷が迅速な、コンテナを用いることで実現され、事前に準備されたサーバーを、短時間で現場に移送できる。

Timmons says this approach makes it “orders of magnitude cheaper to get up and into the game.” He is also emphasizing the ability to use the supply chain to gain cost efficiencies in Microsoft’s next-generation data centers. The use of modular systems and repeatable designs  can drive the cost and delays out of data center construction, while leveraging the power of bulk purchasing.

「ビジネスを組み立て、そこへ入り込むための、一桁安上がりなアプローチ」 だと、Timmons は発言している。 さらに、Microsoft における次世代のデータセンターで、サプライチェーンのコスト効率を高められると、その能力について強調している。 モジュール式システムの活用と、何度でも再現が可能なデザインが、データセンター構築からコストと遅れを取り除く一方で、大量の購買によるメリットを高めるていく。

Server-filled containers are just the beginning of Microsoft’s PAC strategy, according to Microsoft’s Daniel Costello, who discussed the company’s focus on the supply chain last September when Microsoft opened its Chicago data center, the first facility built around containers.

Microsoft の Daniel Costello よると、サーバーを満載したコンテナは、Microsoft の PAC 戦略の始まりに過ぎないとされる。 Microsoft が 最初のコンテナ設備として、Chicago のデータセンターを 2009年 9月にオープンしたとき、彼は同社のサプライチェーンに対する考え方を説明している。

Costello said the company is issuing requests for proposals (RFPs) to vendors for containerized electrical and mechanical equipment. “For us, it’s about pre-manufactured modularization,” said Costello.

さらに、コンテナに詰め込まれる電源や機械を供給するベンダーに対して、RFP(requests for proposals)を発行しているとのことだ。 「私たちにとって、それは前もって生産されたモジュールだ」と、Costello は発言している。

ーーーーー

<関連>
コンテナ・データセンターの イ・ロ・ハ by James Hamilton
世界の 10大 データセンターは ドコ?
Microsoft コンテナ DC 第4世代 ITPAC を Silverlight で!
Microsoft Online Data Center と、カバーされる国々
Azure Container DC – PDC 2009 – on Youtube
Microsoft Chicago 特集

Tagged with: , , , ,

ロシアのハッカー Kirllos が、150万人分の Facebook アカウントを売りに出すという

Posted in Facebook, Security, Weekend by Agile Cat on April 25, 2010

Russian hacker offers 1.5m Facebook credentials for sale
Posted on 23 April 2010.
http://www.net-security.org/secworld.php?id=9186

image

What will Facebook do if the Russian hacker Kirllos’ claim that he has in his possession login credentials for 1.5 million Facebook accounts proves to be true? The hacker was spotted offering the credentials for sale on an underground forum. This image of the post in question was posted on Twitter by Mikko Hyponnen, CRO at F-Secure:

ロシアのハッカーである Kirllos が入手したという、150万人分のログオン証明が本物だったら、どのようにFacebook は対応するのだろう?  このハッカーは、アンダー・グラウンドなフォーラムで、これらのログオン証明を販売すると申し出たことでマークされている。 イメージは、F-Secure の CRO である Mikko Hyponnen が、Twitter にポストしたものだ(この人をフォローするのは面白いかも?)

kirillos

Kirllos asks from $25 to $45 per 1,000 accounts (that’s $0.025/$0.045 per account), and according to VeriSign’s Director of Cyber Intelligence Rick Howard, he has already been able to sell almost half of the total number.

Kirllos の売値は、1000アカウントあたり $25-$40 であり、VeriSign’s Director のf Cyber Intelligence Rick Howard によると、約半数に相当する 75万アカウントが、すでに売れる状態にあるという(なんで分かるんだろう?)

If the credentials are legitimate and the accounts exist, that means that 1 in every 300 accounts is compromised, and can be used by the buyers to prey on other users by spamming and scamming them – not to mention, to direct them towards sites serving malware. And people are more likely to fall for such tricks, since they have a tendency to trust other users that are encompassed in their (online) social circle.

これらのアカウント情報が本物であるとすれば、Facebook ユーザーの 1/30 に相当する情報がハッキングされたことになり、また、スパムなどで一般のユーザーを蝕む、買い手により使用されてしまう。もちろん、マルウェアなどを埋め込んだサイトへ、それらのユーザーを誘導することも可能になる。つまり、グループというカベの中で他のユーザーを信用するという、SNS の特質があるため、こうしたトリックに引っかかってしまう人々が増えていく。

Infoworld reports that Facebook has yet to comment on the whole situation, but I can bet everything I have on the fact that they are investigating the claim thoroughly.

こうした状況に関するコメントを、Facebook は発していないと、Infoworld はレポートしている。 つまり、100% の確率で、Facebook は現在、調査中なのだろう。

ーーーーー

なんとも、話題にこと欠かない Facebook ですね。 この裏社会の情報を見つけ出した Mikko Hyponnen のタイトルである CRO は、Chief Research Officer だそうです。 日本では、あまり聞かない肩書きですが、これからは増えてくるのでしょうかね? ーーー A.C.

ーーーーー

<関連>
Facebook と Greenpeace : Oregon のデータセンターをめぐって対峙
Office 2010 は、Docs.com で Facebook とコラボ?
Microsoft TownHall : Windows Azure と Facebook の連携が始まった!
プライバシーとは?(Google 対 China なんて問題外) by Nicholas Carr

電子ブック・リーダーの No.1 は、iPad ? それとも Kindle ?

Posted in Amazon, Apple, eBook, Weekend by Agile Cat on April 24, 2010

iPad vs. Kindle: Which is the better e-Reader?
April 20th, 2010
Posted by Jason Perlow @ 9:15 pm
http://blogs.zdnet.com/perlow/?p=12719&tag=nl.e550

ipad kindle 1

たくさんのポストを ZDNet に提供している Jason Perlow さんと、その友人の Sandi さんの協力のもとに行われた、iPad vs. Kindle 2 比較テスト・レポートです。  Jason さんは電子ブック関連の記事を ZDNet に書いているベテランであり、これまでに Sony の PRS-700BC などに多額の投資をしてきており、さらに iPad を購入したとのことです。

ipad kindle 2

また、Sandi さんは、Kindle 2 を駆使して月に 20冊以上の本を読んでしまうという、いわゆる Super Reader とのことです。 ともに年齢は 40代で、読書による目の疲労感といった条件も揃えたうえの、ロングラン・テストのレポートなので、けっこう参考になると思います。

なお、読書環境としては、以下の 3つのシチュエーションで試しています。

① 屋内で窓からの自然光
② 晴天と曇天の屋外
③ 夜間のリビングと、ベッドでの寝ヨミ

それでは、各項目ごとの要点です(原文では4つですが、3つにまとめました):

① 屋内で窓からの自然光

4月19日・20日で、ときどき曇りと晴天という天気。ブラインドなどを用いて、屋内の明るさを適度に調整。

Jason : 1日は PRS-700BC で、もう1日は iPad。 PRS-700BC は 1時間以上の読書でも疲れを感じず、iPad は 45分間くらいが限界。

Sandi : Kindle 2 で 2時間以上を読書に没頭。

Jason :iPad 用の Kindle は明るさに関する調整幅が狭いが、iBook はハードウェアをフル・コントロールしているので、その範囲が広い。

まとめ: 明るさの異なる窓際やキッチンなど、二人揃って場所を移動しながらの読書では、iPad が 15-20分で限界。 Kindle 2 が 30分強で限界だった。

② 晴天と曇天の屋外

iPad はスクリーンへの映り込みが激しく NG。Kinfle 2 の圧勝で勝負にならず。

③ 夜間のリビングや、ベッドでの寝ヨミ

思いのほか iPad が良い。 Kindle 2 を暗い室内で読むには、小型の LED クリップなどが快適。 だたし、一人寝の人は良いが、となりに恋人が寝ている場合には、嫌われる可能性が大。

なお、iPad の背景を黒にして文字を白にする設定だと、目を疲れさせないことが判明。 ただし、システム全体に及んでしまうので、その度に設定の変更が必要。

結論 ーーーーー

日中の屋内では iPad が健闘したが、屋外では利用できないことが判明。 また、夜間の屋内では、隣人に迷惑をかけることなく、読書に没頭できる iPad に分がある。 なお、今回の電子書籍は色鮮やかなクラフィック本ではなく、テキストのみのシンプルな本である。。。

___space

くわしくは ZDNet http://blogs.zdnet.com/perlow/?p=12719&tag=nl.e550 で ど~ぞ!

ーーーーー

まぁ、予想どおりの結論なのだと思います。 Kindle 2 の到着を待っているのですが、外への持ち出しは Kindle 2 にして、自宅では Kindle for PC でという作戦が、ハズレではなさそうなので安心しました。 ーーー A.C.

Tagged with: , ,

Facebook と Greenpeace : Oregon のデータセンターをめぐって対峙

Posted in Energy, Facebook, Green IT by Agile Cat on April 23, 2010

Facebook’s Response to Greenpeace
February 20th, 2010 : Rich Miller
http://www.facebook.com/home.php?#!/group.php?gid=311700724500

すでに、Greenpeace からの Make IT Green という提言書と、それに対する Google および Microsoft からの反応について抄訳を提供してきましたが、調べたところ、ちょっと小競り合いが 今年(2010)の 2月に、Facebook と Greenpeace の間にあったことが分かりました。 Data Center Knowledge のアーカイブに、それに関する記事がありましたのでポストします。 ーーー A.C.

ーーーーー

DC Knowledge

The environmental group Greenpeace International says Facebook should rethink plans for its new Oregon data center and is urging Facebook users to join a group calling for the new facility to run entirely on renewable energy, rather than using utility power that generates a majority of its power from coal. After we noted Facebook’s response in our comments earlier this week, the issue has been getting attention from environmental groups and green blogs, which then sparked interest from Greenpeace.

環境保護団体である Greenpeace International は、 Facebook が計画している Oregon のデータセンターについて再考するべきだと発言している。そして、化石燃料から大半のパワーを生み出す、公共的な電力会社に換えて、完全に再生可能なエネルギーで稼働する、新しいファシリティが要求するグループに参観するように、Facebook ユーザーに促している。今週のはじめに、この問題に関する Facebook の反応について、私たちがコメントして以降、環境保護のグループやブログからの注目が集まり、さらには、Greenpeace の興味も引き起こすことになった。

image

“Given the massive amounts of electricity that even energy-efficient data centers consume to run computers, backup power units, and power related cooling equipment, the last thing we need to be doing is building them in places where they are increasing demand for dirty coal-fired power,” the group said in a statment, which was published on the Greenpeace web site and also on The Huffington Post. “Facebook and the cloud should be run on clean renewable energy … Facebook could and should be championing clean energy solutions, and not relying on the dirty fuel sources of the past to power their new data center.”

「コンピュータを動かし、予備電源ユニットを持ち、冷却装置にも電力を使うデータセンターが、如何に効率化/省力化されていても、膨大な電力を消費することを前提とすれば、汚れた化石燃料を要求する火力発電を前提とした、データセンターを構築する他に道はなくなる。しかし、Facebook とクラウドは、クリーンで再生可能なエネルギーで稼働されるべきであり、また Facebook は、こうしたムーブメントのリーダーになれるはずであり、これまでのデータセンターが依存してきた汚れた液体燃料を、この新しい設備に利用すべきではない 」と、GreenpeaceThe Huffington Post の Web サイトで、このグループは発言している。

Greenpeace has urged Facebook users to join a Facebook group titled Tell Facebook to use Clean Energy for its Data Center.

Greenpeace は Facebook ユーザーに対して、Tell Facebook to use Clean Energy for its Data Center というグループに参加するよう呼びかけている。

(注記) このポストの末尾に記すように、現在では We want facebook to use 100% renewable energy というグループに活動が受け継がれている。 ーーー A.C.

“It is simply untrue to say that we chose coal as a source of power,” Facebook said in response to Greenpeace. “The suggestions of ‘choosing coal’ ignores the fact that there is no such thing as a coal-powered data center. Similarly, there is no such thing as a hydroelectric-powered data center. Every data center plugs into the grid offered by their utility or power provider.”

Facebook は、「私たちが化石燃料を選んだというのは、単純に言って間違いである」と Greenpeace に反論している。 さらに、「化石燃料のパワーで動くデータセンターなど、どこにもないという事実を無視している。 同様に、水力発電のパワーで動くデータセンターも、どこにもない。 すべてのデータセンターは、公益事業である電力会社から提供される、送電網に接続されている。」

Here is Facebook’s updated response, in its entirety:

以下に、Facebook が更新した、回答の全文を掲載する:

Overall, we’re thrilled at our choice in Oregon and that we’re challenging the industry to think creatively to meet the standards we’ve set in efficiency. As we continue to grow, we’re committed to environmental responsibility and will be seeking and evaluating more ways to minimize and offset our impact on the planet. In selecting Oregon, we chose a region that offers a uniquely dry and temperate climate. This climate enables us to design what we believe to be one of, if not the most, energy efficient data centers in the world. Specifically, most data centers use mechanical chillers or large air conditioners for part, if not all, of the year to cool the computers within the facility. These mechanical chillers use a lot of energy and are only exceeded in their energy use by the thousands of computers inside the data center. Because of the climate around Prineville and our unique design, we won’t use any mechanical chillers. None. We won’t even build any. Instead, the data center will use an innovative evaporative cooling system.

全体的に見て、Oregon における選択と、効率という面で設定した基準が、産業界では創造的だと捉えられていることについて、私たちは興奮している。 私たちが成長し続けるにつれて、環境に対する責任を委ねられ、地球に対する影響を最小に留め、また、その埋め合わせを行うための、沢山の方法を探して評価してきた。 Oregon では、良好な湿度と気温の土地を選択した。 この気候が私たちに実現させてくれるのは、たとえ世界一とは言えなくとも、最高水準の 1つだと信じられる、エネルギー効率の良いデータセンターのデザインである。すべてではないが、大半のデータセンターでは、夏場にコンピュータを冷やすために、冷却装置もしくは巨大なエアコンが用いられている。 これらの装置は、データセンター内の何千というコンピュータに続いて、大量のエネルギーを消費するものとなる。Prineville 近郊における気候と、私たちの斬新なデザインにより、このデータセンターでは、いかなる冷却装置も使用されない。一切である。 それらを構築することもない。 その代わりに、このデータセンターでは。気化熱による革新的な冷却システムが使用されるだろう。

Here is an example to illustrate. Imagine two identical houses with all of the same power consumption inside (appliances, electronics, etc.) only one is cooled by a large air conditioner and the other is cooled by ceiling fans. Obviously, the house with the fans will use significantly less energy. That’s why you may get rebates from your power company when you install a ceiling fan and why our data center will use less energy to deliver our service to users. In case you’re wondering, we’ll also be using industry-leading and our own innovative technology to keep the computers themselves much more efficient than industry averages.

これは、確認されるべき事例となる。 すべてが同条件の、同じだけの電力を消費(器具や家電など)する住宅があり、一軒は大きい冷房装置により冷やされ、もう一軒は天井の扇風機により冷やされると想像してほしい。 明らかに、ファンを使う住宅のほうが、消費するエネルギーは少ないだろう。 それは、天井に扇風機を取り付けると。電力会社からの払戻しを得る理由であり、また、ユーザーにサービスを提供するための、データセンターでの消費電力を抑える理由である。 私たちは、業界をリードする革新的なテクノロジーを持ち、また、業界の平均を凌駕するコンピュータの利用効率を維持しているので、それは不思議なことではない。

At the same time, it is simply untrue to say that we chose coal as a source of power. The suggestions of “choosing coal” ignores the fact that there is no such thing as a coal-powered data center. Similarly, there is no such thing as a hydroelectric-powered data center. Every data center plugs into the grid offered by their utility or power provider. The electrons powering that data center are produced by the various sources (e.g. hydro, natural gas, coal, geothermal, nuclear, etc.) the provider uses in proportions similar to the mix of sources used. That is, if 25% of the providers energy comes from natural gas, it’s a good guess that 25% of the electrons powering the facility come from that source. Even when a facility is in close proximity to an individual source of energy, such a dam or coal plant, there is no guarantee that the electrons from that source are flowing to the facility at any particular time.

それと同時に、私たちが化石燃料をエネルギー源として選んだというのも、単純な間違いだ。化石燃料のパワーで動くデータセンターなど、どこにもないという事実を無視している。  同様に、水力発電のパワーで動くデータセンターも、どこにもない。  すべてのデータセンターは、公益事業である電力会社から提供される、送電網に接続されている。 データセンターにパワーを供給する電力は、多様なエネルギー源(水力、天然ガス、化石燃料、地熱、原子力など)から構成され、それらが混合された比率に応じて、私たちプロバイダーは電力を使用する。つまり、プロバイダーが使用するエネルギーの25%が天然ガスなら、その設備にパワーを供給する電力の25%が、そのソースから来ると推測すべきだ。 たとえ、そのような設備が、ダムや石炭のプラントに近い場所にあるとしても、それらのソースから電力が供給されるという保証は、時間を限定するにしてもあり得ない。

It’s true that the local utility for the region we chose, Pacific Power, has an energy mix that is weighted slightly more toward coal than the national average. However, the efficiency we are able to achieve because of the climate of the region and the reduced energy usage that results minimizes our overall carbon footprint. Said differently, if we located the data center most other places, we would need mechanical chillers, use more energy, and be responsible for more overall carbon in the air—even if that location was fueled by more renewable energy.

私たちが選んだ地域のローカル・ユーティリティーである Pacific Power が、全国歴な平均と比べて若干ではあるが、化石燃料への依存率が高いことは事実である。 しかし、この地域の気候とエネルギー使用の低減により、結果的にカーボン・フットプリントを最小化することで、私たちは効率化を達成できる。 言い方を換えると、データセンターを他の地域に移行すると、メカニカルな冷却装置が必要になるはずであり、さらに多くのエネルギーを使用し、大気中に多量の CO2 を排出することになる。 たとえ、その地域に、より多くの再生可能エネルギーが供給されるにしても、同じことである。

In addition, we plan to have our data center in Prineville for a long time so when considering the sources of energy, we took a long term view. Pacific Power, the energy provider we’ll use in Oregon, has an aggressive plan for increasing their renewable energy mix. In fact, their most recent plan calls for having more than 2,000 megawatts of renewable resources by 2013. Thus, our data center is only going to get more green over time as these resources come on line and contribute even greater portions of the facility’s energy.

それに加えて、Prineville でのデータセンターを計画するに際して、私たちは長い時間を費やしている。 したがって、エネルギー源を考慮するときにも、長期的な視点で捉えている。 私たちが Oregon で採用するであろう、エネルギー・プロバイダーの Pacific Power は、再生可能エネルギーの比率を増やすべく、積極的な計画を有している。 現実に、同社の最新の計画では、再生可能リソースからの発電量が、2013年までに 2,000メガワット以上に引き上げられる。したがって、これらのリソースがオンラインで提供されるにつれて、私たちのデータセンターは時間をかけながらグリーン化され、この機関に大きく貢献することになる。

NOTE: The Facebook protest group has had periods in which it was unavailable, as Greenpeace notes. “If the link doesn’t work, please be patient and refresh your browser,” it says. “Our Facebook group has “mysteriously” appeared, gone down, and then back up.”

NOTE: この、反 Facebook グループは、Greenpeace が指摘するように、このサイトにおける利用期限を持っている。そして、「リンクが機能しない場合には、ブラウザをリフレッシュしてほしい。 私たちの Facebook グループは、不思議なかたちで登場し、居なくなり、また戻ってくる」 と説明されている。

The group was offline for about 12 hours Friday, during which group founder Dietrich Muylaert accused Facebook of “undemocratic, totalitarian tactics.”

実際に、このグループは、金曜日に 12時間にわたって遮断された。 そして、このグループを作った Dietrich Muylaert が、その間に、Facebook における 「非民主的で専制的な戦略」を非難した。

After an inquiry from Data Center Knowledge, Facebook restored the group. “This group was disabled in error and has been reactivated,” the company said. “We sincerely apologize for any inconvenience this has caused.”

Data Center Knowledge による調査の後に、Facebook は このグループを復旧させた。 「このグループは、エラーにより使用不能となったが、現在は復旧している。それによる不都合が生じたことに、真摯に謝罪する」 と、同社は述べている。

One possible issue may be the steps used to promote the group. At the time the group was initally disabled, Muylaert said “there were over 3,000 invitations to join the group, send out by its members, which were not yet responded upon.” Some of these appear to have been through a lengthy series of identical tweets through Muylaert’s Twitter account, which now appear to have been deleted. If Facebook receives complaints about unsolicited emails or tweets to promote a group, it would be likely to review the group’s status.

このグループを促進するために用いられたステップに、何らかの問題があったのかもしれない。 このグループが、最初に使用不能となったとき、「グループへの参加を呼びかける招待状が、3,000 通以上発行されおり、また、反応がない」と、Muylaert は発言している。 それらの発言は、Muylaert の Twitter アカウントを介して発信されていたが、すでに削除されたように思われる。 もし Facebook が、グループの促進に関する苦情あるいは嘆願のメールやツイートを受信する場合には、そのステータスが再考されていると考えるべきだろう。

ーーーーー

まぁ、Facebook の言い分もわかるのですが、それくらいのことは理解した上での提言であると、Greenpeace 側は言いたいのでしょう。 実際に、Web 上には各種の情報が溢れていて、こうしたタイミングで Facebook から、偉そうに教えてもらう程のものではないと、言われてしまっても仕方ないですね。 その点、Google と Microsoft は高飛車にならずに、慎重に対応していると思います。 ーーー A.C.

ーーーーー

<関連>
グリーンピースに反応する Google と Microsoft
環境保護団体グリーンピースから、クラウド・コンピューティング業界へ提言
コンテナ・データセンターの イ・ロ・ハ by James Hamilton
Microsoft Data Center イメージ・ビデオ
Google コンテナ・データセンターを Youtube で!

%d bloggers like this: