Agile Cat — in the cloud

Instagram 専用の、フォト・フレーム が カッコイイ

Posted in Entertainment, Facebook, Social, Weekend by Agile Cat on August 31, 2012

Would You Buy This Instagram-Based Digital Picture Frame?
http://wp.me/pwo1E-4FE

Dylan Love | Aug. 26, 2012
http://www.businessinsider.com/instacube-kickstarter-project-2012-8

_ Business Insider

Instacube is a digital picture frame that wirelessly puts Instagram photos on display, and it’s currently raising money on Kickstarter.

Instacube は、Instagram フォトを、ワイヤレスを介して表示する、デジタル・フォト・フレームであり、Kickstarter 社のドル箱となりつつある。

image

Use it to view any type of image you want, whether they’re your photos, your friends’ photos, or pictures with a specific hashtag attached to them.

自分でのフォトであろうと、トモダチのフォトであろうと、あらゆるタイプのイメージを、そこに映して楽しめる。もちろん、Instagram のハッシュタグを使って、映したいフォトを選択することも可能だ。

The device costs $149 and you can pick it up here.

価格は $149。 詳細は、ここで!

ーーーーー

imageなんとまぁ、ステキなプロダクトなんでしょう ♫  Facebook が、Instagram の買収について発表したのが 4月のことと。あっという間に $1B の値をつけた同社ですが、その周辺には、こういうサードパーティ・ガジェットが、たくさん出てきそうな感じがします。 それにしても、いいなぁ~~~ ほしいなぁ~~~ image 

ーーーーー

<関連>

Facebook が Instagram を $1B で買収 – まとめページ
Facebook は Instagram API を殺さないと思うけど
Pinterest + Instagram = Pinstagram というハイブリッド・ソーシャル

 

Facebook が Oregon に追加する、3つ目の小さなデータセンターとは?

Posted in Data Center Trends, Facebook, Open Compute by Agile Cat on August 31, 2012

Facebook to build a 3rd, small data center in Oregon
http://wp.me/pwo1E-4Fv

By
Katie Fehrenbacher – Aug 15, 201
http://gigaom.com/cleantech/facebook-to-build-a-3rd-small-data-center-in-oregon/

_ Gigaom

Like Apple is doing in North Carolina, Facebook is adding on a smaller data center at its facility in Prineville, Oregon. The new building won’t add jobs to the region, but represents Facebook’s rapid infrastructure build out.

Apple が North Carolina で行なっているように、Facebook は Prineville, Oregon のファシリティに、小規模なデータセンターを追加している。 この新しい建物は、地元に仕事をもたらさないだろうが、Facebook による迅速なインフラ構築の様子を示している。

Facebook continues to build out its infrastructure and add servers at a rapid rate. According to local reports, Facebook is adding a third small data center at its Prineville, Oregon facility, next to the two larger data centers already built.

Facebook はインフラを増築し、また、素早いテンポでサーバーを追加し続ける。 地元紙からのレポートによると、Facebook は Prineville, Oregon のファシリティにおいて、構築済みの 2号棟(大規模)データセンターの隣りに、小規模なデータセンターを付け加えている。

The current Prineville data centers are 334,000 square feet, while the new one will be 62,000 square feet. The new one also won’t add any jobs to the region.

これまでに、Prineville データセンターに構築された建物は、334,000平方フィートの規模であるが、この新しい方は 62,000平方フィートになるだろう。したがって、それにより地元が潤うこともない。

Adding on smaller facilities at these huge data center locations isn’t unusual. Apple is adding on a small (21,000 square foot) “tactical” data center at its North Carolina site, next to its 500,000 square foot iCloud data center.

こうした、巨大データセンターのための敷地に、小さいファシリティを加えること自体は、おかしなことではない。 Apple は North Carolina サイトにおいて、500,000平方フィートの iCloud データセンターの隣りに、小規模な(21,000平方フィート)戦略的データセンターを加えている。

But Facebook’s infrastructure will be important to watch. The company is in a growth phase and its number of servers have soared to an estimated 180,000, up from an estimated 30,000 in the winter of 2009, and an estimated 60,000 by the Summer of 2010. That’s one of the reasons why Facebook is now keeping close track of its energy, water and resource consumption of its data centers.

しかし、Facebook のインフラについては、追い続けることが重要になるだろう。 同社は成長のフェーズにあり、また、保有サーバー数は 180,000台に急上昇していると推測される。それは、2009年の冬の30,000台と、2010年の夏の 60,000台という推定値から、大幅に増えてきている。Facebook が、データセンターにおける電力/水利/資源の消費について、精査な追跡調査を行なっている理由が、そこにあるはずだ。

For more info on data centers check out:

ーーーーー

image今週の Agile_Cat は、Facebook データセンター特集になってしまった感じがします :) たまたま、データセンターに関する調べものがあったので、一連のコンテンツが目に止まったのですが、ちょうど良いタイミングで、Facebook のインフラ・チームから、大量の情報が提供されたことも、その理由として挙げられるでしょう。 先日の 『 Apple や Facebook などの、インフラ投資比率をチャートで見比べる 』 でも分かるように、このところの Facebook のインフラ投資は、ものすごい勢いで伸び続けています。こうしたインフラが稼働し始めるにつれて、どのようなサービスを見せてくれるのでしょう。 とても 楽しみですね。 ーーー image

ーーーーー

<関連>

Web が膨張し続ければ、データセンター需要も拡大し続ける
Facebook と Google の サーバー保有台数を推測する – James Hamilton
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?
Facebook の 巨大 DC を気化熱で冷やす、ミストの秘密について説明しよう
Facebook の爆発的な成長と、それを支えるデータセンター戦略<

Facebook 革命は、なにをハードウェア産業に強いるのか

Posted in .Chronicle, .Selected, Data Center Trends, Facebook, Green IT, Open Compute, Strategy by Agile Cat on August 30, 2012

Inside Facebook’s Plan To Revolutionize The Entire Hardware Industry
http://wp.me/pwo1E-4Fj
Julie Bort | Aug. 10, 2012
http://www.businessinsider.com/inside-facebooks-plan-to-revolutionize-the-entire-hardware-industry-2012-8

_ Business Insider

Something extraordinary is happening at Facebook. The company is working on an idea that that could disrupt some of the largest enterprise tech companies in the world like IBM, HP, Dell.

途轍もない何かが、Facebook で始まっている。同社が取り組んでいるアイデアとは、IBM や、HPDell といった、世界で有数のエンタープライズ・テック・カンパニーを、混乱させるものでもある。  

Facebook is leading a project that pushes hardware vendors into a new, and open-source way of building servers.

Facebook がリードするプロジェクトは、オープンソースでサーバーを構築するという新しい考え方を、それらのハードウェア・ベンダーに無理強いする。

Facebook open source hardware guru
Frank Frankovsky

It’s called the Open Compute Project. Its goal is to do for commercial hardware what Linux did for commercial software — change the way it is designed, built, sold and supported.

それは、Open Compute Projectと呼ばれるものである。 その目標は、Linux が商用ソフトウェアに対して行ったことを、商用ハードウェアに適用することである。 つまり、ハードウェアの設計/構築/販売/サポートを、新しい方式に置き換えるものとなる。

Previously, Facebook would buy off-the-rack hardware from a company like Dell or HP. But now it custom designs the hardware it needs, then it has a manufacturer in Asia build it. After that, through OCP, Facebook releases the designs for anyone else to use or modify as they wish.

以前の Facebook は、Dell や HP などの企業から、既製品としてのハードウェアを購入してきたことだろう。 しかし、いまでは、必要なハードウェアをカスタムにデザインし、Asia のマニファクチャに製造させている。 その後に、Facebook は OCP を介して、誰もが利用できるようなカたちで、さらにはモディファイできるかたちで、そのデザインを公表している。

A lot of other companies who buy a lot of servers have taken notice and joined the effort — as have the companies making the hardware. The OCP now has dozens of members like HP, AMD, Fidelity, Quanta, Tencent, Salesforce.com, VMware, Canonical, DDN, Vantage, ZT Systems, Avnet, Alibaba, Supermicro, and Cloudscaling.

大量のサーバーを購入する数多くの企業が、この、ハードウェアを製造する企業と連携しようとする試みに関心を持ち、また、参加している。 現時点において、OCP には数多くのメンバーがいる。 そして、そこには、HP/AMD/Fidelity/Quanta/TencentSalesforce.com/VMware/Canonical/DDN/Vantage/ZT Systems/Avnet/Alibaba/Supermicro/Cloudscaling といった、そうそうたる企業が名前を連ねる。

The designs OCP comes up with are posted to GitHub, a site that hosts all sorts of open source projects.

OCP が考えるデザインは、あらゆるオープンソース・プロジェクトをホストする、GitHub のサイトにポストされる

This week, a group of OCP server vendors landed at Facebook’s headquarters in Palo Alto to show of their wares and talk about the next steps.

今週のことだが(8月上旬)、OCP のサーバー・ベンダー・グループが Palo Alto の Facebook HQ に集まり、それぞれのプロダクトを見せ合い、次のステップについて語り合った。

We caught up with Frank Frankovsky, the man leading the OCP charge. Frankovsky is director of hardware design and supply chain at Facebook. He told us:

私たちは、OCP の責任者である Frank Frankovsky を追いかけた。 Frankovsky は、Facebook におけるハードウェアの、デザインとサプライチェーンに関するディレクタでもある。彼は、私たちに、以下のように話した:

  • After the team built its first data center in Prinevill, Ore, which opened in April, 2011, they saw that it was 38% less expensive to operate, gave them a “24% capex savings advantage” compared to buying gear from typical vendors and that their data centers consumed a lot less electricity, too.
  • Traditional server vendors have had mixed reactions to OCP, but are starting to come around. Both HP and Dell have created experimental servers.
  • 彼らのチームは 2011年4月に、Ore. Prinevill の最初のデータセンターをオープンした後に、一般的なベンダーから装置を購入するのと比較して、計上支出を 38% も引き下げ、また、CAPEX に 24% の余裕を与えたことを確認した。そして、さらに、このデータセンターの電気消費は、はるかに低いレベルに抑えられているのだ。
  • 従来からのサーバー・ベンダーたちは、OCP に対して複雑な反応を示していたが、そのスタンスを変化させ始めている。 そして HPと Dell の両社が、OCP に則った実験的なサーバーを構築したのだ。

imageHere is a lightly edited transcript.

以下は、少しだけ編集した口述筆記である。

BI:  How did the Open Compute Project begin?

BI: どうして Open Compute Project を始めたのか?

FF: We were leasing data center space and buying-off-the-shelf server and storage products that were built for a different use case.  They are are great for enterprise IT users who might have a few racks of equipment here and there. But when you are deploying at scale, you have a different set of requirements, a different cost structure and different environmental impact.

FF: 私たちは、データセンター・スペースをリースし、既存のサーバーとストレージを購入していたが、それらは異なるユースケースのためのものであった。  それらは、さまざまな場所に、少数のラックを配置する、エンタープライズ IT ユーザにとって、素晴らしいものなのだろう。 そかし、スケールを前提としてデプロイメントを行うときには、要件および、コスト構造、環境への影響において、異なる組み合わせが必要となる。

FF: We decided we needed we needed to build our own infrastructure. Once we put it into production we thought, wow, this is more efficient than we thought. It’s the most efficient data center that we’re aware of in the world. How much greater would the impact be if everyone had a blueprint on how to build these?

FF: 私たちは、自身のインフラを構築していく必要があると判断した。そして、プロダクションの段階に入ったとき、想像以上の効率化が達成されたのだ。 それは、私たちが認識する限り、世界で最も効率の良いデータセンターである。そして、誰もがこの青写真を用いて、データセターを構築することができれば、どれだけの影響が生じるのかと考えた。

BI: What’s unique about your hardware versus the ones built by commercial vendors?

BI: 従来からの商用製品と比べて、なにが違うのか?

FF: We have this concept of “vanity free designs.” There’s a lot of non-value-added materials in server or storage designs. For example, when you look at a HP or a Dell server, they have this beautiful plastic bevel on the front that allows them to put logo on the front. That plastic not only impedes the air flow, which causes the fans to work harder to cool the servers, but when you are deploying servers by the 10′s of thousands, that’s a lot of wasted material that is someday going to be decommissioned and put into the waste stream.

FF: 私たちのコンセプトは、「飾り気のないデザイン」にある。 一般的なサーバーやストレージのデザインには、たくさんの無意味なものが持ち込まれている。 たとえば、HP や Dell のサーバーを見ればわかるが、そのフロントにはロゴを取り付けるための、美しいプラスチック・パネルが配置されている。 そのプラスチック・パネルは、空気の流れを妨げ、サーバーを冷却するファンを、忙しく回転させるだけではない。つまり、何万台ものサーバーをディプロイするとき、大量の至言を無駄にすることになる。そして、いつかは戦列を去り、廃棄物の流れを増大させることになる。

BI: Are there any other measurable benefits of an open compute server vs a commercial server?

BI: その他の点で、商用製品に対するアドバンテージはあるのか?

FF: Once in production with these servers, the time that it takes to repair the servers [is quicker]. We do time and motion studies on how long does it take a technician to repair a failed component on an open compute server relative to a Tier 1 HP or Dell server. In some areas there’s an 8x decrease in the amount of time. That allows us to have one technician supporting up to 15,000 servers. In some other environments, you might have one technician for 150 servers.

FF: それらのサーバー群がプロダクション・フェーズに入ってからというもの、その修理などに費やされる時間が短くなった。私たちは、障害を起こしているコンポーネントを、どれくらいの時間で交換できるものかと、Open Compute サーバーと、Tier 1 の HP や Dell サーバーの間で、組織的な手法で比較してみた。そして、いくつかの領域では、1/8 に時間が短縮されていることが分かった。それにより、いまでは 1人の技術者が、最大で 15,000 台のサーバーをサポートできるようになった。別の環境では、150 台のサーバーに対して、1人の技術者が必要になるかもしれない。

BI: How did the server vendors react when you made your designs an open source project?

BI: あなたが、このオープンソース・プロジェクトをデザインしたとき、サーバー・ベンダーたちは、どのように反応したのか?

FF:  It’s been an interesting year. There’s been some really difficult discussions and also some really fruitful discussions with our core suppliers. The difficult discussions typically centered around, ‘Wait a minute, if you are going to be building your own stuff, how am I ever going to compete for your business? I’m building a product portfolio designed for the masses, not for a Google or an Amazon or Microsoft or a Facebook. You guys are small number of very large consumers.’

FF:  実に興味深い1年であった。 とても難しい内容のディスカッションがあったが、私たちのコアとなるサプライヤーと、実りの多いディスカッションを行うことができた。 この難しいディスカッションの中心に置かれたのは、「ちょっと待って。 もし、あなたが自分で作ってしまうなら、どのようにして私たちはコンペに参加すればよいのか?」という問である。 それに対しては、「私たちが作ろうとしていているのは、大衆のためにデザインされたポートフォリオであり、GoogleAmazonMicrosoft/Facebook のためのものではない。 あなた方は、きわめて大きな規模の消費者のうちの、少数なのである」と答えた。

The trend towards cloud computing leaves the HP’s and Dells of the world in a challenging position. Everyone has a finite number of engineering resources.  But along comes open compute and they see a light. One of our functions is to give a cleaner signal to the HP’s, Dell’s, IBMs, Seagates, FusionIOs of the world of what our market really wants.

クラウド・コンピューティングへと向かうトレンドは、チャレンジングなポジションの中に、HP や Dell の世界を残している。 どの企業も、無限のエンジニアリング・リソースを持っているわけではない。  しかし、Open Compute の登場と共に、光が差し込んでくる。 私たちが機能すべき事柄の 1つには、HP/Dell/IBM/Seagates/FusionIO などの世界へ向けて、このマーケットが本当に必要としていることを、明確なシグナルとして発信することが含まれる。

BI: Do you see your designs and your open source design method being useful for enterprise data centers?

BI: あなたの考える、このオープンソース・デザインは、エンタープライズのためのデータセンターに対しても、有益なものになると捉えるか?

FF: I believe where we’re focused is the leading indicator and not lunatic fringe kind of design. The question is who wouldn’t want a more efficient server?

FF: 私たちがフォーカスしているのは、デザインにおける先行指標であり、見当はずれでのデザインを行なっているわけではないと、私は信じている。 逆に聞きたいのだが、より効率良いサーバーを欲しない人はいるのだろうか?

BI: But right now, the enterprise can’t get them, can they? Unless they grab your design and go off and build them themselves?

BI: しかし、いま現在、エンタープライズはそれを手にしていないが、これからは可能なのか? あなたのデザインを、彼らが手にしたら、この流れから外れて、自分たちで作る他に、道はないのでは?

FF: Well they actually can. And that’s one of the really cool offshoots of the OCP. We’re starting to see open compute solution providers launching new businesses to distribute these designs to end users. Not everybody has to go and make the investment in developing their own supply chain.

FF: そう、彼らは、それを実現できる。 それは、OCP における、きわめてクールな分流の 1つである。Open Compute のソリューション・プロバイダたちが、彼らのデザインをエンドユーザに向けて提供するという、新しいビジネスを立ち上げていることを、私たちは確認している。すべての企業が、自身のサプライチェーンを作り上げるために、投資が必要になるわけではない。

FF: This week, we’ve got all the Open Compute designers at Facebook for a summit of all those companies.  Companies like Synnex has launched a new division called Hyve around developing and supporting Open Compute hardware. Avnet is investing in Open Compute labs around the country where end users can come in and work on the Open Compute product, customize it to their liking, then procure it and have it be supported through Avnet. Quanta has launched a new business called QCT where they are bringing new Open Compute technology directly to end users.

FF: 今週のことだが、それら全ての企業のトップたちのために、すべての Open Compute デザイナーたちを Facebook に集めた。  Synnex などは、Open Compute ハードウェアを開発/サポートするために、Hyveという名の新部門を立ち上げている。Avnet は、全国に展開される Open Compute ラボに投資し、そこに Opne Compute に取り組むエンドユーザを迎え入れている。そして、エンドユーザの好みに応じたカスタマイズを施し、その調達からサポートまでを、Avnet を介して具体化できるようにしている。 Quanta は、 QCT というニュー・ビジネスを立ち上げ、Open Compute のテクノロジーを、エンドユーザにダイレクトに提供している。

FF: It’s really exciting. My prediction is we’re going to see similar things with Linux and Red Hat. [Red Hat] allowed companies to adopt Linux and know that there’s a technology company behind it to support them. That’s the same trend we’re seeing with the Open Compute hardware business.

FF: それらは、きわめてエキサイティングなことである。私たちは、Linux と Red Hat の関係に似たものになれると、私は自身は予測している。 [ Red Hat ]は、数々の企業に Linux を採用させ、その背後には、サポートのための会社があることを知らしめてきた。 それは、私たちが、Open Compute のハードウェア・ビジネスにおいて、目にしている傾向と同じである。

ーーーーー

imageこの OpenCompute Project が発表されたのは、Prineville, Oregon の直後ですから、2012年 5月 だったと記憶しています。 出来立ての、最新鋭データセンターで実現されたものを、つまり、それまでの数年をかけて蓄積してきたノウハウを、惜しげもなく公開してしまう Facebook に驚きましたが、『 それで FB は、なにが嬉しいの? 』という疑問に対して、すぐに答えを見つけることができませんでした。

そして、3ヶ月ほど悶々としながら考えた末に、たどり着いたのが、『 ハードウェア産業全体の構造を変えたい 』のだという、このインタビューで Frank Frankovsky さんが答えているものでした。 そして、2012年 10月末の大雪の NY と、2011年 5月の灼熱の San Antonio というふうに、二度もサミットに参加するほど、Agile_Cat はコレにハマッてしまったのです :)

この大きな流れには、ご想像のとおり、また、本文にも書かれているとおり、台湾の ODM メーカーたちが深く関与しています。 知らぬは日本ばかりなり、、、とならないよう、 猫の手しか貸せませんが、それなりに Agile_Cat も頑張ろうと思っています。 左上の、ちいさなアイコンをクリックすると、OpenCompute カテゴリにジャンプしますので、お時間がありましたら ど~ぞ! ーーー image

ーーーーー

<関連>

Facebook の データセンター戦略に関する FAQ _1
対訳 – Building Efficient Data Centers with the Open Compute Project
Agile_Cat 空撮隊 – Facebook Oregon データセンターを探索するも ・・・
詳細な解説つきの Facebook Oregon DC フォト・ツアー
Facebook の、次の巨大データセンターが North Carolina に!
環境保護団体グリーンピースから、クラウド・コンピューティング業界へ提言 その_1

Facebook の 巨大 DC を気化熱で冷やす、ミストの秘密について説明しよう

Posted in .Selected, Data Center Trends, Energy, Facebook, Green IT, Open Compute by Agile Cat on August 29, 2012

jWater Efficiency at Facebook’s Prineville Data Center
http://wp.me/pwo1E-4F6

Thursday, August 9, 2012 · Posted by
Daniel Lee
http://opencompute.org/2012/08/09/water-efficiency-at-facebooks-prineville-data-center/

image

For Facebook, good data center design is all about efficiency — how efficiently we use energy, materials, and water, and how they tie together to bring about cost efficiency. We’ve previously shared information on energy and materials efficiency, and today we’re releasing our first water usage effectiveness (WUE) measurements and information on how we’ve achieved what we think is a strong level of efficiency in water use for cooling in the first building at our Prineville, Ore., data center (which we’ll call Prineville 1 here).

Facebook にとって、優れたデータセンター・デザインとは、すべから有効性に集約される。 つまり、どのようにして、電力と、物質と、水を、有効に利用し、また、コストの効率化に、如何にして結びつけるかということである。 以前から、私たちは、電力と物質の有効利用について、その情報を共有してきた。そして、いま、私たちの WUE(Water Usage Effectiveness )について、その基準と情報をリリースする。それは、Prineville, Ore. における最初のデータセンターで(ここで Prineville 1と呼ぶ)、水を用いた冷却における効率を、高次元に引き上げるという発想を、どのように具体化したのかという話でもある。

We’re sharing this information as part of our commitment to the Open Compute Project; we believe that open sharing and collaboration surrounding these kinds of best practices is crucial to ensuring that, as an industry, we’re innovating rapidly and minimizing our environmental impact.

この情報についても、Open Compute Project へ向けたコミットメントの一部として、私たちは共有している。この種のベスト・プラクティスを取り巻く、オープンな共用とコラボレーションは、環境に対する影響を迅速に改善し、また、確実に最小化していくことを、1つの産業として約束する上で、きわめて重要なことだと信じる。

After a year of operation, which required our retrofitting the building management system and adding water metering, we’ve found Prineville 1′s Q2 2012 WUE to be 0.22 L/kWh. By definition, WUE is an annualized calculation; however, we will report results on a quarterly basis, and those numbers will eventually become a 12-month trailing metric. WUE measures water used for cooling a data center only; it doesn’t measure water used for plumbing or offices, though Facebook minimizes water usage in these areas as well by using reclaimed water and waterless urinals in the bathrooms.

マネージメント・システムに対する変更と、水に関する測定の追加を要求する、1年間の運用を達成した後、私たちは、Prineville 1 における 2012年 Q2 の WUE が 0.22L /kWh であるのことを理解した。 定義上、 WUEは年間を通じて計算されるべきであるが、私たちは四半期ベースの結果をレポートしていく。 ただし、そこでの値は、最終的に、12ヶ月間を通した基準になるだろう。 WUE とは、データセンターを冷却するために用いられる、水に限定した測定となる。 つまり、たとえば Facebook は、トイレにおける再生水や節水などにより、他の領域でも水利用を最小化しているが、それらの水道施設やオフィスで使用された水は測定されない。

We think that 0.22 L/kWh is a great result, but it should be noted that the WUE concept is fairly new and, to our knowledge, no one else has publicly reported WUE yet. We hope that other companies will soon start measuring and reporting WUE so we can begin setting benchmarks for the metric and working together to find new ways to improve.

私たちは 0.22 L/kWh を、素晴らしい結果だと捉えているが、WUE のコンセプトは最新のものであり、また、私たちの認識においては、他に誰かが WUE について、公式にレポートしたこともない。 したがって、それらの点を留意しておくべきだろう。私たちは、他の企業が早急に WUE を測定し、その結果をレポートすることを希望している。そうすれば、この基準に対するベンチマークを設定し、また、改善のための方式を、協調して探っていくことが可能になる。

How Facebook Minimizes Water Usage for Cooling

Prineville 1′s mechanical system comprises a built-up penthouse that utilizes 100% outside air economization with a direct evaporative cooling and humidification (ECH) misting system. This design allows us to achieve a strong WUE. Details and specifications for this system can be found at http://www.opencompute.org/specs. This blog post provides insight into the water efficiency of the Open Compute Project (OCP) mechanical system deployed in Prineville.

Prineville 1 のメカニカル・システムは、ダイレクトな ECH(Evaporative Cooling and Humidification )ミスト・システムによる、外気 100% のエコノマイザーを利用するために、作りこまれたペントハウスにより構成される。 そして、このデザインにより、私たちは高度な WUE を達成するできた。 このシステムに関する詳細と仕様は、www.opencompute.org/specs で参照できる。 このブログ・ポストは、Prineville にディプロイされた Open Compute Project(OCP)メカニカル・システムの、水利用の効率に関する洞察を提供している。

Mixing outside air and return air. (Photo by Alan Brandt.)
クリックで拡大

Typical data center mechanical systems usually do not use outside air economization, instead recirculating up to 100% of the air used to cool the server room with a central chilled water plant and cooling towers, which consumes much more energy and water. It’s like using a window-mounted air conditioner to cool a room instead of putting a fan in a window when the outside temperatures are cooler than the temperature in the room.

一般的なデータセンターのメカニカル・システムでは、サーバー・ルームを冷やすために、外気エコノマイザーを使用しないのが通常である。それに代えて、センタライズされた冷却水プラントとクーリング・タワーにより、100% まで循環される空気が用いられるが、そこでは、より多くの電力と水が消費されてしまう。 つまり、室内の空気より外気が冷たいときに、ファンを回転させて室内に冷気を送り込むのに代えて、窓に取り付けられたクーラーを使うようなものだ。

Mixing outside air and return air.
(Photo by Alan Brandt.)

Furthermore, the typical data center mechanical system consumes water via cooling towers, which process waste heat to the atmosphere via evaporation as a large fan blows air over media moistened with water. In addition to this evaporation, cooling towers require blow down, which is the dumping of the cooling tower water to sewage. Blow down is necessary for a cooling tower due to the water accumulating dissolved minerals as the water evaporates.

さらに、一般的なデータセンターのメカニカル・システムでは、クーリング・タワーにより水が消費されてしまう。なぜなら、水で湿らせた媒介物に対して、大型のファンで空気を吹き当てるという、気化熱を用いた方式により排熱プロセスを達成しているからだ。 また、そこでの蒸発量に加えて、クーリング・タワーは大きな風量を必要とするため、貴重な水を下水へと無理やり流しこむことになる。 つまり、気化熱を用いることで、水に溶け込んでいる鉱物質の濃度が上昇してしまうため、水を吹き飛ばすだけの風量が、クーリング・タワーには不可欠なものとなる。 

The OCP mechanical system has no chillers or cooling towers. Instead, it uses outside air as a first stage of cooling, a process that is also referred to as outside air economization. Economization is utilized the entire year in Prineville 1, as the OCP system is designed to be single pass, where outside air enters the data center, warms up as it passes over the servers, and then is either recirculated or exhausted back outside. This system greatly minimizes the need for blow down, and it also doesn’t require the use of chemical treatments to combat biological intrusions like algae.

OCP のメカニカル・システムでは、チラーやはクーリング・タワーは用いられない。 その代わりに、冷却のための第一段階として外気を用いる。 しれは、外気エコノマイザーとも呼ばれるプロセスである。 OCP システムは、シングル・パスとしても設計されているため、Prineville 1 では年間を通じて、このエコノマイザーが用いられる。外気がデータセンター内に導かれ、サーバーの頭上を通過しながら熱を吸収し、その後に再循環されるか、屋外に排気されるかというかたちをとる。一般的に、このシステムは、クーリング・タワーにおける無駄を最小化する。そして、藻のような生物の混入に対処するための、化学的な処理も不要となる。

The second stage of cooling occurs via the direct ECH misting system. The ECH system drops the temperature of the air significantly via phase change of liquid water to water vapor in the direct path of supply air to the data hall. Evaporative cooling technology has been used for thousands of years for built environments. Perspiration is also a simple example of evaporative cooling.

冷却のための第二段階は、ECH ミスト・システムのダイレクトな適用によるものである。この  ECH システムは、水から水蒸気への変換による劇的な温度の低下を、データセンター・ホールへ流れ込む空気に対して、ダイレクトに適用するものである。水蒸気によるクーリング・テクノロジーは、何千年にわたって、環境のために用いられている。 また、発汗も、水蒸気によるクーリングの、シンプルな例である。

The ECH system is composed of the following equipment:

  • Water storage tanks
  • Booster pumps
  • Carbon filters
  • Water softeners
  • Reverse osmosis (RO) water purification skids
  • RO water storage tanks
  • Distribution pumps
  • Misting system pump skids
  • Mist eliminator
  • Water polishing system

この ECH システムは、以下の装置により構成されている:

  • 貯水槽
  • 昇圧ポンプ
  • 硬水軟化剤
  • 逆浸透圧(RO:Reverse Osmosis)浄水スキッド
  • 逆浸透圧(RO:Reverse Osmosis)貯水槽
  • 分散型ポンプ
  • ミスト・システム・ポンプ・スキッド
  • ミスト除去器
  • 水洗浄システム

The booster pumps take water from the outdoor water storage tanks and pump the water through carbon filters for initial filtration. Water softeners then precipitate calcium, magnesium, and other minerals. Reverse osmosis (RO) skids then further purify the water of total dissolved solids. Our measurements indicate that 75% of the water brought into the data center is used for cooling (3 out of 4 parts of RO water are used for product), while the remaining 25% is blown down. The main purpose of the RO system is to purify the water to minimize the potential to clog the misting nozzles, as the ECH system includes thousands of high pressure misting nozzles with 150 micron diameter orifices, and using untreated water can create a maintenance issue because it can clog the nozzles.

ここで用いられる昇圧ポンプは、戸外の貯水タンクから水を汲み上げ、また、カーボン・フィルターによる最初のろ過を介して、水を送り出す。 続いて、硬水軟化剤により、カルシウムやマグネシウムなどの鉱物を沈殿させる。 さらに、逆浸透圧(RO:Reverse Osmosis)浄水スキッドにより、水中に溶解した物質を完全に浄化する。 私たちの測定によると、データセンター内まで取り込まれ、冷却に用いられる水は全体の 75% であり(RO 水の 3/4 が運用のために用いられる)、また、残りの 25% は廃棄される。 この RO システムの主たる目的は、ミスト・ノズルを詰まらせる可能性を最小に抑えるための、水の浄化にある。なぜなら、この ECH システムのミスト・ノズルは 150 micron 径であり、数千気圧というレベルの圧力がかかるからである。つまり、完全な浄化処理を行わない水を用いると、ノズルを詰まらせる可能性が高まり、メンテナンスの問題を引き起こすことになる。

Prineville 1′s misting system.
(Photo by Alan Brandt.)

Following purification, the RO product water is pumped into RO water storage tanks. Distribution pumps then pump the RO water at 40 PSI up to misting system pump skids that pump the water into stainless steel piping at 1000 PSI upon demand to meet temperature or humidity setpoints. The misting pump skids are equipped with variable frequency drives (VFDs) that can provide very fine-grained control of the misting system for accurate temperature and humidity controls.

浄化された後の水は、 つまり RO 生成された水は、RO 貯水槽に送り込まれる。 続いて、分散型のポンプが、ミスト・システムのポンプへ向けて、40 PSI まで加圧した RO 水を送り込む。 さらに、ミスト・システムは、要件である温度と湿度に合致する 1000 PSI の圧力で、ステンレス・パイプへ RO 水を送り込む。このミスト・ポンプは、温度と湿度を正確にコントロールするために、VFD(Variable Frequency Drives:可変周波数ドライブ)を用いた、きわめて微細な調整を可能にする。 

The stainless steel piping is routed to the misting nozzles, which are set up in an array, where the nozzles atomize the water, maximizing the misting water surface area – which in turn maximizes the evaporation rate. Approximately 85% of the misted water evaporates into the supply air stream. The remaining 15% is recaptured in a mist eliminator that is downstream of the misting nozzles. The recaptured RO water is put through a micron filter and UV lamp and then brought back to the RO water storage tanks, which is another method of water conservation designed within the system. The air is then delivered into the data center via fans that push the air down dry wall supply airshafts.

このステンレス・スチールのパイプは、水を霧状にするノズルの縦列へ向けて配管される。 こうして、ミスト生成のためのミスト散布面を最大化し、また、揮発レートを最大化する。 霧状にされた水の、約 85% がエアー・ストリームの中に取り込まれていく。 残りの 15% は、ノズルの下床に設置された、ミスト除去器により回収される。 そして、回収された RO 水は、1 micron のフィルタと、UV ランプを介した後に、RO 貯水槽へと戻される。それは、このシステムで設計されている、もう1つの水保全の方式である。 そして、冷やされた空気は、水分を除去するための通気孔を持ったドライ・ウォールへ通過し、ファンによりデータセンター内へ送り込まれる。

The end result is a mechanical system that is more water efficient than a typical chilled water/cooling tower data center mechanical system. The design of Prineville 1 inherently uses less water as we require less hours of “cooling” since the OCP mechanical system uses free cooling via economization and can operate at higher temperatures. Higher operating temperatures require less energy to cool the air Additionally, the ECH system consumes less water – it’s a more-direct method of heat transfer to the supply air into the data hall, as it’s in the supply air stream, rather than a cooling tower that requires blow down.

最終的な結論として、このメカニカル・システムの水利用効率は、一般的なデータセンターにおける、チラーとクーリング・タワーの組み合わせに勝るものとなった。 Prineville 1 のデザインは、年間における冷却の期間が短ければ、その分だけ水の消費も抑えられるシステムとなっている。なぜなら、OCP のメカニカル・システムは、エコノマイザーによるフリー・クーリングを用いており、また、一般よりも高温での稼働にも対応しているからだ。 より高温での稼働は、空気を冷やすための電力使用量を抑制する。 それに加えて、この ECH システムは、水の消費量を根本的に抑制する。なぜなら、大量の風力を用いるクーリング・タワーと比較して、データセンター内に供給される空気に対して、効率の良い熱伝導の方式をダイレクトに適用できるからである。

Reporting WUE in the Future

Facebook will continue to release WUE metrics on a quarterly basis for all our data centers. The WUE for the second building at our Prineville data center should be available next year, when that building is online. Facebook is also working on WUE metrics for our Forest City, North Carolina, data center, and will report once we have enough data.

Facebook は、その全データセンターにおける WUE 測定に関して、四半期ごとのレポートを提供し続けていく。 Prineville データセンター 2号棟における WUE は、稼働が予定されている来年には提供できるはずだ。さらに  Facebook は、Forest City, North Carolina データセンターにおいても、同様に WUE 測定に取り組んでいる。 そこでも、十分なデータが取得された段階で、レポートを提供する予定だ。

If you’re interested in learning more about how we designed our Open Compute data centers, download the electrical and mechanical specifications from the Open Compute website. To join the conversation, subscribe to the data center design mailing list If you’re interested in helping the industry tackle these efficiency issues and more, get involved with the Open Compute Project.

もし、Open Compute データセンターのデザインについて興味があるなら、Open Compute Web サイトから、Electrical and Mechanical Specifications をダウンロードして欲しい。 また、ディスカッションに参加してもらえるなら、データセンター・デザイン・メーリングリストをサブスクリプトして欲しい。 さらに、このエネルギーの有効利用に取り組む、私たちの業界に対して協力してもらえるなら、Open Compute Project に参加して欲しい

ーーーーー

imageこの記事を読むまで、このミスト・システムが、これほど重要なものだとは思っていませんでした。 きわめて小径のノズルから、人工の霧を高圧で吹き出すためには、こんなに手間のかかる浄化が必要なのですね。 先日の、Google 海水冷データセンターとは、また別の切り口からの水利用に興味シンシンです。巨大データセンターを、一切のチラーを用いずに、水の力で冷やしていこうとする Facebook と Google に拍手です。 ーーー image

ーーーーー

<関連>

Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?
詳細な解説つきの Facebook Oregon DC フォト・ツアー
Facebook Oregon DC の、第2期工事が早まるらしい
Facebook Oregon データセンターを、10分間の詳細ビデオで ど~ぞ!
Open Compute が創りだす、新世代 Web のためのビジネス・モデルとは?
Open Compute が1歳になったが、想像する以上に遠大な思想である

 

VMware が OpenStack に参加って マヂ ですか?

Posted in .Selected, OpenStack, VMware by Agile Cat on August 28, 2012

Surprise! VMware will join OpenStack
http://wp.me/pwo1E-4EM

Aug 26, 2012 – 5:52PM PT
http://gigaom.com/cloud/surprise-vmware-will-join-openstack/

_ Gigaom

Never say never. VMware is about to join the OpenStack Foundation, a group initially backed by other industry giants as a counterweight to VMware’s server virtualization dominance. Intel and NEC are also on deck to join as Gold OSF members.

世の中、何が起こるかわからない。 VMware が OpenStack Foundation に参加しようとしている。この団体は当初、サーバー仮想化における VMware の優位性に対するカウンターとして、業界の大手に支持されてきたのだ。 また、Intel と NEC も、Gold OSF メンバーとして参加しようとしている。

imageJust in time for VMworld, VMware is about to join the OpenStack Foundation as a Gold member, along with Intel and NEC, according to a post on the OpenStack Foundation Wiki. The applications for membership are on the agenda of the August 28 OpenStack Foundation meeting.

OpenStack Foundation Wiki へのポストによると、ちょうど VMworld に間に合うかたちで、 VMware は Intel や NEC と共に、Gold メンバーとして OpenStack Foundation に参加しようとしているとのことだ。  このメンバーシップに関する申請は、8月 28日の OpenStack OpenStack ミーティングにおけるアジェンダに載っている。

A year ago, a VMware-OpenStack hookup would have been seen as unlikely. When Rackspace and NASA launched the OpenStack Project more than two years ago, it was seen as a competitive response to VMware’s server virtualization dominance inside company data centers and to Amazon’s heft in public cloud computing.  Many tech companies including but not limited to Rackspace, IBM, Hewlett-Packard, Citrix, Red Hat and Microsoft saw VMware as a threat and were bound and determined to keep the company from extending its virtualization lock into the cloud.

1年前であれば、 VMware-OpenStack 接続なんて、トンデモナイと思われただろう。 2年以上も前になるが、Rackspace と NASA が OpenStack Project を立ち上げたとき、オンプレミス DC における VMware 仮想サーバーの優位性に対して、また、パブリック・クラウド・コンピューティングにおける Amazon からの圧力に対して、真っ向から戦っていく姿勢として見られていた。  Rackspace に限定されることなく、IBM や、Hewlett-Packard、Citrix、Red Hat、Microsoft を含む、数多くのテック・カンパニーたちが、VMware を脅威として見なしていた。 そして、同社が、クラウドにも仮想化ロックを拡大することを、阻止しようとする強い決意を持っていたはずだ。

image

Steve Herrod, CTO and SVP of R&D, VMware
(c)2012 Pinar Ozger pinar@pinarozger.com

But, things change. VMware’s surprise acquisition of Nicira and DynamicOps last month, showed there might be a thaw in the air.  For one thing, Nicira is an OpenStack player. By bringing Nicira and DynamicOps into the fold, VMware appeared to be much more willing to work with non-VMware-centric infrastructure, as GigaOM’s Derrick Harris reported at the time.

しかし、物事は変化する。 先月に起こった、VMware による、電撃的な Nicira と DynamicOps の買収が、雪解かもしれないという雰囲気をもたらしている。  1つには、Nicira が OpenStack プレーヤーだという現実がある。 以前に、GigaOM の Derrick Harris がレポートしたように、VMware は、この団体の中心に Nicira と DynamicOps を置くことで、Non-VMware セントリックなインフラの中で、振る舞っていくことも厭わないように思われる。

This is a symbolic coup for OpenStack and its biggest boost since IBM and Red Hat officially joined as Platinum members in April.  And it’s especially important since Citrix, a virtualization rival to VMware undercut it’s own OpenStack participation last April by pushing CloudStack as an alternative open source cloud stack.

これは、OpenStack に対する象徴的なクーデターである。そして、IBM と Red Hat が、4月に Platinum メンバーとして正式参加して以来の、最大の推進力を与えるものでもある。  そして、仮想化において VMware のライバルである Citrix が、もう 1つのオープンソース・クラウドである CloudStack をプッシュすることで、OpenStack から脱会していることも、きわめて重要な背景である。

OpenStack Gold members, which include Cloudscaling, Dell, MorphLabs, Cisco Systems, and NetApp, pay a fee pegged at 0.25 percent of their revenue — at least $50,000 but capped at $200,000 according to the foundation wiki. (VMware’s fee will be $66,666, according to the application, submitted by VMware CTO Steve Herrod, which is linked on the wiki post.) Platinum members —  AT&T, Canonical, HP, Rackspace, IBM, Nebula, Red Hat, and SUSE – pay $500,000 per year with a 3-year minimum commitment.

OpenStack の Gold メンバーには、Cloudscaling/Dell/MorphLabs/Cisco Systems/NetApp などが名前を連ねている。同ファウンデーションの wiki によると、それらの企業は、売上額の 0.25%(最低でも $50,000 以上)を会費として収めるが、上限は $200,000 となっている(VMware CTO Steve Herrod が提出した申請書によると、VMware の会費は $66,666 になる。この wiki 上のリンクから参照できる)。 また、 Platinum メンバーである、AT&T/Canonical/HP/Rackspace/IBM/Nebula/Red Hat/SUSE は、$500,000/年の支払を、3年間にわたりコミットしている。

Subscriber Content
Related research and analysis from GigaOM Pro

 

 

 

ーーーーー

imageあっと、驚く展開ですね。 8月 28日の OpenStack OpenStack ミーティングというと、これからの開催になりますが、拒まれることは無さそうですね。 そして、焦点となるのは、これからの VMware の立ち位置です。 ネットワークの仮想化などを取り込んだ、Datacenter as a Services を標榜するなら、OS の仮想化テクノロジーは何でも良いというスタンスを要求されるでしょう。 そして、そのような変化を遂げるなら、いまのビジネス・モデルを、その根本から変更しなければなりません。 これからの展開に注目です。 ーーーimage

ーーーーー

<関連>

VMware が Nicira を $1.26B を買収 : その背景にあるものは?
VMware の言うクラウド選択の自由と、Nicira の買収は矛盾しないのか?
VMware は Cloud Foundry に、独自の道を歩ませるべきだ
CloudStack vs. OpenStack : Citrix の言う Amazon ライク説を論破する _1
NASA は OpenStack を捨て、Amazon に乗り換えたのか?

主要ソーシャル・メディアについて、年齢と性別の分布を調べてみた

Posted in Facebook, Research, Social, Tumblr, Twitter by Agile Cat on August 28, 2012

Report: Social network demographics in 2012
http://wp.me/pwo1E-4EE

August 21st, 2012 by Pingdom
http://royal.pingdom.com/2012/08/21/report-social-network-demographics-in-2012/

_ pingdom

Do you know how old the average Twitter or Facebook user is? Do you know what share of Reddit’s users are women? We could go on and on; when it comes to social network demographics, the questions are endless. This article is going to answer those questions for you, showing you the age and gender distribution on 24 of today’s most popular social networks and online communities.

あなたは、Twitter や Facebook のユーザーの、平均年齢について知っているだろうか? また、Reddit ユーザーのうち、女性はどのくらいの割合になるのか、知っているだろうか? それらについて、私たちは 調査を進めているが、ソーシャル・ネットワークの人口統計について、考えだしてしまうと切りがない。 この記事により、そうした、あなたの疑問に答えたい。そのために、いま人気の、24のソーシャル・ネットワーク・オンラインコミュニティについて、それらを構成するユーザーの、年齢や性別について分布を調べてみた。

The sites included in this survey are: Facebook, Twitter, LinkedIn, Pinterest, Tumblr, Reddit, Hacker News, Slashdot, Github, Stack Overflow, Orkut, Quora, WordPress.com, Blogger, Flickr, Myspace, Tagged, Hi5, LiveJournal, Yelp, deviantART, StumbleUpon, Goodreads and Last.fm.

この調査には、FacebookTwitterLinkedInPinterestTumblrRedditHacker NewsSlashdotGithubStack OverflowOrkutQuoraWordPress.comBloggerFlickrMyspaceTaggedHi5LiveJournalYelpdeviantARTStumbleUponGoodreadsLast.fm が含まれる。

You may note one glaring omission: Google+. Unfortunately for us there is no data on Google+ in DoubleClick Ad Planner, the Google-owned tool we used for the demographics data. Another thing we should point out is that the demographics data used in this survey is for the United States.

あなたは、Google+ の欠落に気付くだろう。 残念なことに、この人口統計データのために用いた、Google が提供する DoubleClick Ad Planner に、Google+ のデータが無いのだ。 そして、この調査で使用している統計データが、United States を対象としている点も、最初にお断りしておく。

With that out of the way, let’s dive into the data!

さあ、普段とは異なる視点から、データの海に飛び込んでみよう!

Average age distribution

If you average the age distribution across all the sites in the survey, this here below is what you end up with. You could think of it as the age distribution in the social media sphere.

この調査における、すべての対象サイトの年齢分布の平均を知りたいなら、以下のチャートを参照して欲しい。 このデータを、ソーシャル・メディアの世界における、年齢分布として捉えることができる。

More than half of these social media users are between 25 and 44 years old. This, however, was just an average. When looking at the individual sites in this survey, there are considerable differences.

ソーシャル・メディア・ユーザーの、半分以上が 25歳~44歳の間に集中している。 ただし、この値は、全体の平均に過ぎない。 そして、個々のサイトをみると、かなりの相違点があることが分かってくる。

Age distribution per site

As we just mentioned, there are big differences in the age demographics of the individual sites. You can examine all of them in the chart here below. We’ve sorted the chart by average age (more on that farther down), “youngest” site at the top.

前述のとおり、それぞれのサイトにおける年齢分布には、大きいな差異がある。 以下のチャートで、それぞれのサイトについて、確認して欲しい。 年齢層が、最も低いサイトをトップに置き、高いサイトをボトムに置いている。

This chart should make something very clear; social media is most definitely not just for the young. Some examples:

このチャートから、大半のソーシャル・メディアが、若者だけのために有るのではないという事実が見えくる。 以下に、いくつかの例を示そう。

  • 55% of Twitter users are 35 or older.
  • 63% of Pinterest users are 35 or older.
  • 65% of Facebook users are 35 or older.
  • 79% of LinkedIn users are 35 or older.

However, as you could see in the very first chart of this article, only 2% of social media users are 65 or older (averaged between the sites in this survey). There is also the flip side of the coin to consider; some sites have a considerable bias toward younger users. A few examples:

しかし、この記事の最初のチャートで見たように、ソーシャル・メディア・ユーザー全体で、65歳以上の人々が占める比率は、たった 2% に過ぎない(その値は、この調査から得られた平均値である)。 そして、コインの裏表のように、いくつかのサイトは、若年の年齢層に偏っている。 以下に、いくつかの例を示そう。

  • 58% of Reddit users are under 35.
  • 60% of Github users are under 35.
  • 63% of Hi5 users are under 35.
  • 69% of Hacker News users are under 35.
  • 69% of deviantART users are under 35.
  • 83% of Orkut users are under 35.

A couple of examples of sites with more homogenous user bases, age wise:

また、いくつかのサイトは、特定の特定の年齢層に偏っている。

  • Hacker News has almost half of its users (44%) in the 18-24 age bracket.
  • Orkut on the other hand has a massive grouping of people aged 25-34. This is so large (76%) that we suspect it may be an anomaly in the Ad Planner data. None of the other sites display such extremes.
  • More than half of DeviantART’s users are below 25.
Average user age per site

Based on the sites in this survey, the estimated age of the average social media user is just under 37 years old. Here are some other observations:

これらのサイトに関する調査をベースにすると、ソーシャル・メディア・ユーザーの平均的な年齢は、37歳を少しだけ下回っていることが分かる。 ここに、いくつかの観察ポイントがある。

  • The oldest users. LinkedIn has the oldest user base, with the average user being 44.2 years old.
  • The average Facebook user is 40.5 years old.
  • The average Twitter user is 37.3 years old.
  • The age trend for Facebook and Twitter. Compared to a previous survey we did 2.5 years ago, the age of the average Facebook user has gone up two years, while the age of the average Twitter user has gone down two years. In other words, Twitter’s user base is getting younger, while Facebook’s is getting older.

And here is the full chart with all the sites, sorted by average age:

以下のチャートは、それぞれのサイトにおける平均年齢を並べたものである。

What about gender?

This whole article so far has been about the age of people using these social networks and online communities. Now it’s time to examine the male-female ratio, or gender balance if you prefer that word.

これまでのところでは、ソーシャル・ネットワークとオンライン・コミュニティにおける、ユーザーの年齢について調べてきた。ここからは、男性と女性の比率について見ていく。 それとも、ジェンダー・バランスと言ったほうが良いのだろうか。

Based on the United States demographics data (from Ad Planner) there is a clear gender imbalance on many of these sites. Some are much more male dominated, and vice versa. However, when you look at all the data together, it becomes clear that women rule social media. More than two thirds of the sites in this survey have more female than male users. Other observations:

Ad Planner から提供される United States 人口統計データをベースにすると、大半のサイトにおいて、男女比の異なる様子が見えてくる。 あるサイトでは、男性の方がずっと多く、また、あるサイトでは、時勢の方がずっと多い。 しかし、すべてのデータを平均してみると、女性たちがソーシャル・メディアを支配している様子が明確になる。 この調査では、対象サイトの 2/3 以上で、女性ユーザーの方が多数であるという結果が出た。 また、その他の観察ポイントとしては、以下の項目がある。

  • 17 out of 24 sites (71%) have more female than male users.
  • The average gender distribution is 48.75% male, 51.25% female.
  • Most male-dominated site? Slashdot (87% males) is the standout, followed by Hacker News (77% males) and Stack Overflow (76% males). In general, the more tech-focused sites in this survey have more male users than female.
  • Most female-dominated site? Pinterest (79% females) is in a league of its own, followed by Goodreads (70% females) and Blogger (66% females).
  • Facebook and Twitter have the same gender distribution: 40% male, 60% female.

Here below is a chart with the male-female ratios for all 24 sites included in this survey. The chart is sorted, the least male-dominated sites at the top.

以下のチャートは、この調査の対象である、24のサイトにおける男女比を示している。 トップには女性が優位なサイトを置き、ボトムには男性が優位なサイトを置いている。

As you can see, the only sites in this survey with more male than female users are Quora, Reddit, Orkut, Github, Stack Overflow, Hacker News and Slashdot.

見てのとおり、男性の方が女性より多いサイトは、Quora/Reddit/Orkut/Github/Stack Overflow/Hacker News/Slashdot だけである。

Final notes

We hope you found this report interesting. It’s easy to get lost when digging through this kind of data, but we hope we managed to present it in a way that gave you a decent overview of the situation today.

このレポートに、あなたが興味を示してくれることを、私たちは望んでいる。 この種のデータをマイニングするとき、往々にして道に迷いがちになる。 しかし、今日の状況を適切に概説するための方式を、上手く提供できたはずだと思っている。

To us, one big takeaway from this report is that there’s a place for everyone in today’s social media landscape. These sites have users that span the entire age spectrum, and there really are no limits to what you can achieve online, regardless of age or gender.

私たちにとって、このレポートから得られる大きな視点とは、今日におけるソーシャル・メディアの視界の中に、すべての人々の居場所が存在するという事実である。 これらのサイトは、年齢分布の全体におよぶユーザー層を有している。そして、年齢や性別にかかわらず、オンラインで達成し得ないことは無い、という状況が見えてくる。

A note on the source data: All the demographics data in this survey is for the United States, but the patterns shown here should translate roughly to other countries as well. That said, there are regional differences, so keep that in mind if you’re applying this to other parts of the world.

Previous surveys: We did a couple of similar surveys almost three years ago (age, gender), but the results are not easy to compare since a different set of sites were used (the social media landscape has changed).

Larger charts: Average age distribution, Age distribution per site, Average age per site, Gender distribution.

Image credit: Top image background via Shutterstock.

ーーーーー

image文中にも指摘されているように、このデータはアメリカ市場のものであり、他国の状況は反映していませんし、もちろん、日本の状況も反映していません。 しかし、日本のソーシャル調査結果などと照らし合わせてみると、とても興味深い差異が浮かび上がってくるのだろと思えてきます。それにしても、これ程までに、女性ユーザーが多いとは、想像もしていませんでした。 ーーー image

ーーーーー

<関連>

Gartner の Cloud Hype Cycle 2012 で、これからの市場を占う
日本と世界のインターネット・トラフィック – 2012年/7月
Web サイト Top-1000000 の、43% が米国にホストされている
世界の Web サイト : Top-10000 の 75% を OSS が占める
アジアの MOBILE トラフィック比率が、この 2年間で 3倍に増大した!

 

Google がフィンランドに作った海水冷 DC とは?

Posted in .Selected, Data Center Trends, Energy, Google, Green IT by Agile Cat on August 28, 2012

Cheap Data Center… Green Data Center
http://wp.me/pwo1E-4Ey
by  Richi Jennings (richi) on 23-09-2011
http://h30565.www3.hp.com/t5/Feature-Articles/Cheap-Data-Center-Green-Data-Center/ba-p/429

image

Here are some great ideas to save you money and reduce your CO2 emissions. Reducing your electricity bill by improving your energy efficiency has the added benefit of being greener.

データセンターにおけるコストを抑え、また、CO2 排出を減らすための、いくつかの素晴らしいアイデアを紹介しよう。 エネルギー効率の改善により電気の使用料を減らせば、環境の面でもメリットが生じることになる。

Similarly, paying attention to the capital cost of data center equipment — both the servers themselves and the cooling plant — can reduce the amount of “embodied” energy used. The energy used to run a data center is only part of the story; it’s also important to consider the energy that was already used to manufacture the equipment.

同様に、 サーバーとクーリングのプラントで構成されるデータセンター施設に対する、資本コストに注意を払うことで、消費される全体的なエネルギー量を減らすことも可能となる。 データセンターを動かすために使用されるエネルギーは、前提となるストーリーの一部に過ぎない。 つまり、一連の施設を構築するために、すでに消費されたエネルギーについて考えることも、それと同様に重要なことである。ーーー 23-09-2011

Seawater Cooling

imageWhen Google designed its new $300 million Hamina datacenter , in the south-east of Finland, it discovered a natural resource for equipment cooling, right on its doorstep. Cold seawater.

Google が Finland の南東に、新たに  $300 million を費やすHamina データセンターを設計するとき、その戸外に広がる、クーリング装置のための天然リソースを発見した。 それは、冷たい海水である。

Hamina is on the coast of the Gulf of Finland, about 100 miles east of Helsinki. Google realized it could implement an idea that’s sometimes called seawater air conditioning (SWAC) or deep-water source cooling. According to Joe Kava, Google’s senior director of datacenter construction and operations, this has never been successfully done  at the scale that Google’s using it.

Hamina は、Helsinki から約 100マイル 東にある、Gulf of Finland の海岸に面している。 Google は、Seawater Air Conditioning (SWAC) もしくは Deep-Water Source Cooling と呼ばれるアイデアの、実装が可能であることに気づいた。 Google のデータセンター構築/運用 Senior Director である Joe Kava によると、Google が使用するスケールでは、これまで成功したことの無いものだという。

The idea is to draw in cold water from about 25 feet below the surface, which remains at just a few degrees above freezing all year round. The water is passed through a heat exchanger to cool the air, which then extract waste heat from the server racks in the conventional way.

そのアイデアとは、約 25フィートの水深から、年間を通じて氷点よりも僅かに高い、冷たい海水引き入れることである。この海水が熱交換器を通過することで空気が冷やされ、その後は、従来からと同じ方式で、サーバー・ラックからの排熱を取り除くことになる。

A heat exchanger in the Hamina datacenter (source: Google)

Sounds simple, but there are the inevitable, Devilish details:

単純に聞こえるが、いくつかの必然的なものがあると、Devilish は詳述する:

Seawater contains foreign bodies, including sand, driftwood, and… well… critters. Filtration is needed, so you don’t clog up your heat exchangers. Keeping the filters clean is of course very important; your water flow rate drops with a clogged filter. Google uses four levels of filtration, from coarse to fine. Each filter stage and the heat exchangers themselves are designed so that they can be cleaned in-place, by temporarily isolating one redundant subsystem and flushing it with a cleaning solution.

海水には、砂や流木だけではなく、動物をも含めた、異物が浮遊している。 つまり、フィルタリングが必要とされるが、それにより、熱交換器の入り口を塞いではいけない。 もちろん、フィルターをきれいにしておくことが最重要である。 つまり、フィルタの目詰りにより、水流量率は低下してしまう。 Google は、粗いものから、微細なものまで、4段階のフィルタを組み合わせている。 それそれのフィルター・ステージと熱交換器は、それを取り外すこと無く、クリーンアップできるように設計されている。冗長性のあるシステムを一時的に分離して、対象となる部分を清掃液で洗浄することになる。

Seawater promotes corrosion, because it contains dissolved salts. Conventional heat exchangers won’t last long filled with salt water, unless they’re carefully designed. Google used materials such as titanium for the exchangers and fiberglass for the pipework. Use of fiberglass pipe also requires pressure regulation devices, in case of pump failure, because of the fluid hammer effect . (Note also that Gulf of Finland is part of the Baltic “Sea,” which is actually more like a huge, brackish lake, or enormous estuary. The salt content of the water is less than the neighboring North Sea, into which it flows.)

海水には、もちろん塩分が含まれるため、どうしても腐食が促進されていまう。 つまり、慎重にデザインされない限り、塩水で満たされる従来型の熱交換器は、その耐用年数が短くなってしまうだろう。 Google は、この熱交換器のためにチタンのような材質を用い、また、配管のために光ファイバを使っている。 さらに、光ファイバのパイプは、ポンプの故障などにより生じる、流体ハンマー効果に対応するために、水圧調整装置を必要とする。 (注記: Gulf of Finland は、巨大な塩湖あるいは巨大な河口のような、バルト海の一部である。 つまり、隣接する北海と比べて塩分の濃度が低い)

image

Cooling the heated water is important, because returning heated water to the sea would be ecologically unsound. Without cooling the returned water to a temperature close to the original, you’d be replacing one eco problem — CO2 emissions — with another — damage to the aquatic ecosystem. Google solves this problem by only using a small proportion of the inlet water for the heat exchangers; the bulk of the water goes to cooling the heated outlet water. The hot and cold water is mixed in a process that Google confusingly calls “tempering.” The mixed water is now only a little warmer than the original, and can be safely returned to the sea.

温められた水を冷やすことが重要なのは、そのままの温水を海に返すのでは、エコロジー的に不合理を生じるからだ。 元々の水温に近づけずに海へ戻すと、CO2排出という問題を、水生エコシステムへのダメージという問題に、置き換えるだけになってしまう。Google は、この熱交換器の入水口を小さく絞り込むだけで、この問題を解決している。つまり、熱交換器の出水口からの暖められた水を、大量の水で冷やすのである。 具体的には、Google が「焼もどし」と呼ぶプロセスで、温かい水と冷たい水が混ぜられるのだ。

The infrastructure is expensive, because it requires engineering large inlet tunnels more than 25 feet below ground, in order to reach deep water, which is at a stable, cold temperature. Building this from scratch would be a major capital investment, which may not have offered a return in lower energy usage. Similarly, the embodied energy used in construction may not be less that the energy saved. The risk is: You may end up emitting more CO2 by doing this. In Hamina, Google built the datacenter on the site of an old paper mill, which already had suitable water tunnels, because large amounts of water were used in the paper-making process.

このインフラストラクチャが高価な理由は、低温で安定している海水を取り込むためには、海面下 25フィートに達する取水口が必要であり、そのためのエンジニアリングが要求されるからである。 それをゼロから作ることは、きわめて大きな資本投資であり、また、低エネルギーの利用という観点で、メリットを提供しなかったかもしれない。 同様に、建築で費やされるエネルギーを考えると、全体として消費量のほうが大きくなってしまったかもしれない。 そこでのリスクは、このプロジェクトを推進することで、より多くの CO2 を排出するかもしれないという点にある。 この Hamina において Google は、印刷のために大量の水が必要とされるため、すでに適切な取水トンネルを設置していた、古い製紙工場にデータセンターを作っている。 そして、冷却に用いられた海水は、元の水温よりも少し高めとなるが、問題なく海に返すことが可能となる。

Google expects that, when fully operational, the power usage effectiveness  (PUE) for its new datacenter will be around 1.1, which means that it uses only 10% additional power for cooling, lighting, etc. — an impressive, class-leading figure.

このデータセンターが完全に稼働するときの、PUE に関する Google の期待値は 1.1 程度だという。それは、冷却や照明などに消費される付加的な電力が、わずか 10% であるり、また、このクラスのデータセンターにおけるアドバンテージが得られていることを意味する。

Hamina is just one of three chiller-less , or free cooling ideas that Google has been demonstrating at its European data center locations:

Google がヨーロッパ・エリアで例証している、自然排熱型データセンターにおいて、3つのチラー・レスの一角を、この Hamina が占める:

ーーーーー

image先日の『 Google データセンターを埋め尽くす、独自サーバーのコンセプトとは? 』と、『 無限のストレージを、$4/月で提供する Backblaze の秘密とは? 』に続き、HP INPUT OUTPUT チームが提供する、素晴らしいポストから切り出したものです。 これら、3つのタイトルが 1つのコンテンツにまとめられているのですが、かなりの分量なので、こうして 3回に分けて抄訳をポストしたわけです。いずれも、たいへんな力作であり、Agile_Cat としても懸案事項となっていた調べものが、まとめて済んでしまい、とても有り難く思っています :) よろしければ、以下のリンクも ご参照ください。 ーーー image

ーーーーー

<関連>

Google がフィンランドに構築する海水冷却 DC の、改造風景を Youtube で
Google が大規模データセンターをフィンランドに構築
Google データセンターの水冷設備
46MW を湖水で冷却する、アルプスの巨大データセンター
なぜ、Google はアジアの海底ケーブルに投資する?

 

Gartner が指摘する要点 Top-10 : データセンターと IT インフラストラクチャ

Posted in .Chronicle, .Selected, Data Center Trends, Research by Agile Cat on August 27, 2012

Data Centers: Building the Infrastructure of the Future
http://wp.me/pwo1E-4Eg
By Dick Weisinger, on June 29th, 2012
http://www.formtek.com/blog/?p=3068

_ formtek

Ellen Messmer, senior editor at Network World, recently reported Gartner’s 10 top trends in IT infrastructure that were outlined by Dave Cappuccio, Gartner Chief of Research,  in a keynote address at Gartner’s Infrastructure & Operations Management Summit.

先日のことだが、Network World にシニア・エディタである Ellen Messmer が、Gartner の 10 Top Trends in IT Infrastructure についてレポートした。そこでは、Gartner’s Infrastructure & Operations Management Summit のキーノートで、 Chief of Research である Dave Cappuccio が概説したものがベースにされている。

  1. Tablet Proliferation – Tablets like the iPad are replacing many of the tasks performed by laptop and desktop computer.  Tablet apps are typically smaller and more focused at performing specific tasks.
     
    iPad などのタブレットにより、ラップトップおよびデスクトップがこなしていた、数多くタスクが置き換えられた。  タブレットのアプリケーションは、一般的にはコンパクトであり、また、個々のタスク処理にフォーカスしている。
  2. Datacenter Optimization – Server footprints continue to shring and datacenter configurations get more dense.   That’s combined with a strong focus on green computing and energy efficiency.  By 2017 an important metric for most datacenters will be performance per kilowatt.
     
    サーバー・フットプリントが拡大し続けるデータセンターの構成は、その密度をさらに高めている。 そして、さらに、グリーン・コンピューティングとエネルギー効率への、強力なフォーカスと組み合わせられている。  2017年までには、大半のデータセンターにおける重要な指標が、キロワットあたりのパフォーマンスとなるだろう。
  3. Datacenter Resource Management –  Hybrid infrastructures of cloud and on-premise will demand better tracking of both physical and virtual services, their purposes, and their utilizations.  It will be important to know how all the pieces connect together, the locations of those component, who is using them, and what services are being used.

    クラウドとオンプレミスを組み合わせるハイブリッド・インフラストラクチャーにより、物理/仮想サーバーおよび、その目的と有効利用に関する、さらなる調査が要求されるだろう。  そこで重視されるのは、すべての断片的な実体を相互接続する方式、および、それらのコンポーネントのロケーション、それらを利用する要員と、使用中のサービスの把握である。
  4. Mobility and Personal Cloud – Users will increasingly rely on a variety of mobile devices and it will become important to factor that reality into infrastructure designs.

    ユーザーたちのモバイル・デバイスへの依存度はさらに高まるため、そのインフラ・デザインにおける実現性を、考慮に入れることが重視されていく。
  5. Hybrid Cloud – 60 percent of enterprises are using the cloud now and that is only expected to increase.  Over the next three years, businesses are expected to move commodity services into the public cloud while keeping their more sensitive data and services on-premise, building a hybrid cloud to connect the two.
     
    エンタープライズの 60% が、現時点でクラウドを使用し、また、その比率は増加の一途をたどると予想される。  今後の 3年間において、それらの企業はパブリック・クラウドのコモディティ・サービスに移行する一方で、機密性の高いデータとサービスをオンプレミスに保持し続けると予測される。つまり、両者を接続する、ハイブリッド・クラウドが構築されていく。
  6. Fabric Data Centers – Computing will increasingly try to optimize the balance of resources and workloads, considering factors like the computer capability and storage, number of users, and time of day.
     
    コンピューティングは、リソースのワークロードのバランスを、さらに最適化しようとするだろう。 その結果として、コンピュータの能力および、ストレージ、ユーザ数、時刻管理などの要素が、検討されていくだろう。
  7. IT Complexity – Trends like virtualization, mobility and cloud computing are increasingly adding to the complexity of managing IT.
     
    仮想化および、モバイル化、そしてクラウド・コンピューティングなどのトレンドが、IT 管理の複雑さを、さらに増大していくだろう。
  8. Big Data and Analytics – As businesses collect more data they’ll increasingly apply intelligent analytics to the data to extract insights from it.
     
    企業にとって大量データの蓄積が欠かせなくなるにつれて、それらのデータから洞察を抽出するための、インテリジェントな解析が適用されていくだろう。
  9. New Generation of Helpdesks – People’s familiarity with technologies like mobility and social media are making them consider tactics like crowdsourcing first rather then contacting centralized help desks when tackling problems.
     
    モバイルやソーシャルなどのテクノロジーに人々が慣れ親しむに連れて、クラウド・ソーシング(Crowdsourcing)などの方策が検討されていく。 それらは、問題への取り組みにおいて、センタライズされたヘルプデスクに先行して用いられるものとなる。
  10. Virtualized Data Centers – Data centers will develop a virtual layer of software and automatic workflow to enable the data center to become more responsive and able to morph quickly based on the current needs.
     
    データセンターは、ソフトウェアの仮想レイヤーと自動ワークフローを発展させていく。それにより、データセンターは、ニーズに対して反応し、また、そのために形を変えるという、能力を身につけていくだろう。

ーーーーー

image全体的な感じは、IT の主役が PC から Post-PC デバイスへ移行するのにつれて、また、Big Data 処理が具体化してくるつれて、その分だけデータセンターのワークロードが上昇するという視点があるように思えます。 また、ハイブリッド・クラウドに欠かせない、オンプレミスとパブリック・クラウドの連携も焦点になるようです。なお、プライベート・クラウドという言葉が見当たりませんが、オンプレミスの中に集約されているのでしょうか? それと、最後の項目で 「morph 」という言葉が使われているてんが、そても興味深いです。ーーー image

ーーーーー

<関連>

Gartner の Cloud Hype Cycle 2012 で、これからの市場を占う
Facebook と Google の サーバー保有台数を推測する – James Hamilton
Google データセンターを埋め尽くす、独自サーバーのコンセプトとは?
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?
Apple や Facebook などの、インフラ投資比率をチャートで見比べる
eBay のデータセンターは、燃料電池から 6MW を絞り出す

 

%d bloggers like this: