Agile Cat — in the cloud

Google から Facebook へと、すでに覇権は移行しているのか?

Posted in .Selected, Facebook, Google, Research by Agile Cat on October 1, 2010

 

__AC Stamp 2

このところ、Facebbok の攻勢に対して防戦一方という感じの Google ですが、すでにトラフィック数で Facebook が Google に優っているという説があり、ちょっとその辺りを調べてみました。

この種の調査結果を公表しているサイトとして、いつも Agile_Cat が利用するのは、comScore と Hitwise なのですが、このクラフは、その Hitwise からのものです。 ただ、実際に取得したのは AllVoices というサイトでして、明らかに後から足した、同サイトの名称が鮮やかです。 いいのかなぁ~~~ :) 

image

これは、アメリカ国内のすべてのインターネット・トラフィックの中で、Google と Facebook が占める割合を示しています。 その調査期間は、2009年 5月~ 2010年 5月であり、Google がほぼ横ばいの状態であるのに対して、Facebook は 2% 台から 7% 強へと跳ね上がり、ついに Google を上回ったと説明しています。

2009年11月に Facebook の VP である Jeff Rothschild が、30,000 台以上のサーバーを保有していることを明らかにし、年明けの Velocity 2010 カンファレンスで興味深いグラフが公表されたことを合わせて考えれば、この期間において、Facebook が急成長しているのは間違いのない事実のようです。

詳しくは、わずか四半期の間に サーバー数が倍増した Facebook の事情 を参照して頂きたいのですが、Facebook の保有サーバー数は少なくとも、ほぼ 2倍の 60,000 台程度に増強されたとなっていて、前述のトラフィック数の伸びと一致するように思えます。

Facebook-Google_1b

その一方で、comScore は同時期のトラフィック数として、左の表を提供しています。 こちらの調査結果によると、Google のトラフィック数は Facebook の 約 1.5 倍になり、まだ肩を並べるという状況には至っていないことが分かります。

なぜ、このような結果になるのかというと、Marketing  Pilgrim の Why Does Hitwise Want Facebook to Kill Google? で説明されていることに信ぴょう性を感じます。つまり、各種の分析までもビジネスの材料とする Google は、Hitwise のような調査会社にとって危険な存在であるため、Facebook が応援されるのだという説です。

実際に、この Marketing  Pilgrim の記事にもあるように、Hitwise の調査では、Google は単体(Youtube などを除く)であるのに対して、Facebook は全体を含んだかたちの比較が行われているのでしょう。 それを証明するかのように、この comScore の資料には Top-50 が掲載されているのですが、Youtube の名前が見当たりません(Google に加算されている)。 結論として、Marketing  Pilgrim の説とつじつまが合うように思えます。

そして、まとめ ・・・

しかし、単純なトラフィック数の比較だけでは、ビジネスとしてのスケールや、社会への影響力を比較できません。 どこかで見た記憶があるのですが(見つかったらポストします)、サイトにおける滞在時間では、Facebook が Google の 2~3倍という調査結果が出ているのです。 この結果は、両サイトの性質を見比べてみれば、誰もが納得できるものです。

それは、昨日の Facebook と Skype の提携を伝える記事にも、はっきりと書かれています:

Facebook-Google_2

1つには、オンライン・ユーザーが大半の時間を過ごすデスティネーションとして、すでに Facebook が Google を上回っていることが挙げられる。それらのユーザー同士は、同僚/パートナー/サプライヤー/顧客といった関係を持つため、ビジネスとして時間を過ごす意味が生じる。現時点において、Facebook は一義的にソーシャル・ネットワークとして存在するが、ビジネスとしての意味を高め、統合されたコミュいケーション・プラットフォームへと発展するにつれて、マーケティングや、顧客対応、そしてコラボレーションの機会を提供していくだろう。

このグラフも、やはり Hitwise からものものですが、このような Facebook と Google の特質の違いが現れているように見えます。今日の SF Gate に、Here’s Why Google Needs To Buy Twitter Immediately というショッキングはタイトルの記事がポストされていますが、それほどまでに厳しいつばぜり合いを、Facebook の猛追により、Google は強いられているのでしょう。

ーーーーー

言うまでもなく、Google からたどるリンクには Like だけではなく Dislike も含まれ、その見分けはつきません。 その点、Facebook の Like と、Twitter の Tweet から作られるリンクは、もう一段上の精度をもたらします。 この違いは、とても大きな違いだと思えるのです。 それに加えて、まだ株式を公開していない Facebook が、柔軟で大胆な戦略を行使できる点も、有利にはたらくでしょう。 ーーー A.C.

ーーーーー

<関連>
Facebook と Skype のアライアンスが、Google の支配に風穴をあける
Facebook は、絶対にモバイル・フォンを開発しているはずだ – GIGAOM
Facebook Phone について、知っておくべき全てを GIGAOM が解説 _1
Facebook Phone について、知っておくべき全てを GIGAOM が解説 _2
Facebook は簡単には株式公開しない、、、Zuckerberg の回答

Facebook の データセンター戦略に関する FAQ _1

Posted in .Selected, Data Center Trends, Energy, Facebook, Open Compute by Agile Cat on October 1, 2010

The Facebook Data Center FAQ _1
September 27th, 2010 : Rich Miller
http://www.datacenterknowledge.com/the-facebook-data-center-faq/

今週は、さながら Facebook Week になってしまった Agile_Cat ですが、さらに もう1つということで、同社のデータセンター戦略を追ってみました。 その Oregon での計画が発表されて以来、Greepeace とのイザコザがあり、また。ARM が実装されるのではないかというウワサまで流れ、さすがにビックネームと関心しましたが、このお騒がせ巨大データセンターも、そろそろ完成のようです。 ーーー A.C.

ーーーーー

DC Knowledge

With more than 500 million active users, Facebook is the busiest site on the Internet and has built an extensive infrastructure to support this rapid growth. The social networking site was launched in February 2004, initially out of Facebook founder Mark Zuckerberg’s dorm room at Harvard University and using a single server. The company’s web servers and storage units are now housed in data centers around the country.

5億人以上のアクティブ・ユーザーを抱える Facebook は、インターネット上の最もビジーなサイトであり、その急速な成長を支えるための大規模インフラストラクチャを構築しているところだ。このソーシャル・ネットワーク・サイトは、Harvard University の Mark Zuckerberg の寮で、一台のサーバーを用いて、2004年 2月に開始された。 そしていま、同社の Web サーバーとストレージのユニットは、国内における複数のデータセンターに展開されている。

image

Each data center houses thousands of computer servers, which are networked together and linked to the outside world through fiber optic cables. Every time you share information on Facebook, the servers in these data centers receive the information and distribute it to your network of friends.

そしていま、同社の Web サーバーとストレージのユニットは、国内における複数のデータセンターに展開されている。それぞれのデータセンターには、ネットワークで接続され、ファイバー・ケーブルにより外の世界にリンクされた、何千というサーバーが配置されている。 Facebook 上で情報が共有されるたびに、データセンター内のサーバーが情報を受け取り、そのフレンド・ネットワークへの配布が行われる。

We’ve written a lot about Facebook’s infrastructure, and have compiled this information into a series of Frequently Asked Questions. Here’s the Facebook Data Center FAQ (or “Everything You Ever Wanted to Know About Facebook’s Data Centers”).

これまでにも、Facebook のインフラストラクチャについては多くのページを割いてきたが、一連の Frequently Asked Questions としてまとめてみた。以下は、誰もが知りたい Facebook Data Center に関するFAQ である。

How Big is Facebook’s Internet Infrastructure?

Facebook is currently the world’s most popular web site, with more than 690 billion page views each month, according to metrics from Google’s DoubleClick service. Facebook currently accounts for about 9.5 percent of all Internet traffic, slightly more than Google, according to HitWise.

Google DoubleClick サービスの基準によると、現時点における Facebook は 690 billion ページ/月の、世界の最も人気のある Web サイトになる。 また、HitWise によると、現時点における Facebook は全インターネット・ラフィックの 9.5% を占め、 若干であるが Google に優っている。

Facebook requires massive storage infrastructure to house its enormous stockpile of photos, which grows steadily as users add 100 million new photos every day. People share more than 30 billion pieces of content on Facebook each month. In addition, the company’s infrastructure must support platform services for more than 1 million web sites and 550,000 applications using the Facebook Connect platform.

Facebook は、膨大な写真を取り込むための巨大なストレージ・インフラストラクチャを必要とするが、ユーザーが毎日のように 1億枚の写真を加えていくために、ストレージ自体が着実に成長していく。言い換えると、Facebook ユーザーたちは 300億以上のコンテントを、月ごとに共有していく。 それに加えて、同社会社のインフラストラクチャは、Facebook Connect プラットフォームを用いる、100万以上のWeb サイトと、550,000 種類のアプリケーションのための、プラットフォーム・サービスをサポートしなくてはならない。

To support that huge activity, Facebook operates at least nine data centers on both coasts of the United States, and is in the process of building its first company-built data center in Oregon. Although more than 70 percent of Facebook’s audience is in other countries, none of the company’s data centers are located outside the United States.

これらの巨大なアクティビティをサポートするために、 Facebook はアメリカの東西の海岸で、少なくとも 9ヶ所のデータセンター を経営しており、また、Oregon では初めての自社データセンターを構築する過程にある。 Facebook ユーザーの 70% は国外にいるが、同社における全てのデータセンターはアメリカ国内に配置されている。

For most of its history, Facebook has managed its infrastructure by leasing “wholesale” data center space from third-party landlords. Wholesale providers build the data center, including the raised-floor technical space and the power and cooling infrastructure, and then lease the completed facility. In the wholesale model, users can occupy their data center space in about five months, rather than the 12 months needed to build a major data center. This has allowed Facebook to scale rapidly to keep pace with the growth of its audience.

Facebook の歴史において、そのインフラストラクチャの運用は、サードパーティから貸与される “wholesale” をリースする形態が常であった。 Wholesale プロバイダが、床の構造や、テクニカル・スペース、電源、そしてク冷却装置などのインフラストラクチャを含めたデータセンターを構築し、それらを完成された施設としてリースする。このモデルにおいて、ユーザーは対象となるデータセンター・スペースを 5カ月程度占有することになるが、その期間が 12カ月になるのなら、大規模なデータセンターの構築が必要になる。この方式により、増大するユーザーのためスペースを、Facebook は迅速に確保することができた。

In January 2010 Facebook announced plans to build its own data centers, beginning with a facility in Prineville, Oregon. This typically requires a larger up-front investment in construction and equipment, but allows greater customization of power and cooling infrastructure.

そして 2010年1月に、Facebook は Oregon の Prineville で、自前のデータセンターを構築する計画を発表した。一般的に、こうした構築においては、建設と装置に関する初期投資が必要とされるが、電源と冷却のインフラストラクチャにおいて、大幅なカスタマイズが実現される。

Where are Facebook’s Data Centers Located?

Facebook currently leases space in about six different data centers in Silicon Valley, located in Santa Clara and San Jose, and at least one in San Francisco. The company has also leased space in three wholesale data center facilities in Ashburn, Virginia. Both Santa Clara and Ashburn are key data center hubs, where hundreds of fiber networks meet and connect, making them ideal for companies whose content is widely distributed.

Facebook は現在、Silicon Valley の Santa Clara と San Jose に、5ヶ所のデータセンターをリースし、残りの 1つは San Francisco にある。 また、Verginea の Ashburn で、3つデータセンター・ファシリティをリースしている。 この Santa Clara と Ashburn が、何 100というファイバー・ネットワークが集約される場所であり、コンテントを広範囲に配布するための、理想的なデータセンター・ハブとして機能している。

Facebook’s first company-built data center is nearing completion in Prineville, Oregon. If Facebook’s growth continues at the current rate, it will likely require a larger network of company-built data centers, as seen with Google, Microsoft, Yahoo and eBay.

Facebook が初めて構築するデータセンターは、Oregon の Prineville にあり、もうじき完成する。 もし、Facebook の成長が現在のペースを維持するなら、 Google/Microsoft/Yahoo/eBay などに見られるように、企業が構築するデータセンターとしての、大規模なネットワークを必要とするだろう。

How Big Are Facebook’s Server Farms?

clip_image001

A rendering of an aerial view of the Facebook data center in Princeville, Oregon ⇒

As Facebook grows, its data center requirements are growing along with it. The new data center Oregon is a reflection of this trend.

Facebook の成長につれて、そのデータセンター要件も成長していく。 この Oregon のデータセンターも、こうした傾向が反映された結果である。

In the data centers where it currently operates, Facebook typically leases between 2.25 megawatts and 6 megawatts of power capacity, or between 10,000 and 35,000 square feet of space. Due to the importance of power for data centers, most landlords now price deals using power as a yardstick, with megawatts replacing square feet as the primary benchmark for real estate deals.

現時点で運用されているデータセンターにおいて、Facebook は 2.25 ~ 6 メガワットの電力と、10,000 平方フィートと 35,000 平方フィートの敷地を使用している。データセンターにおける電力供給の重要さを背景として、それらの所有者は平方フィートに置き換えて、メガワットを第一義の基準として用いている。

Facebook’s new data center in Oregon will be much, much larger. The facility was announced as being 147,000 square feet. But as construction got rolling, the company announced plans to add a second phase to the project, which will add another 160,000 square feet. That brings the total size of the Prineville facility to 307,000 square feet of space – larger than two Wal-Mart stores.

Oregon における Facebook の新しいデータセンターは、これまでの常識と比較して、かなり大規模なものとなるだろう。 その施設は、147,000 平方フィートだと発表されている。 ただし、その建設が軌道に乗るにつれて、さらに 160,000平方フィートの敷地を、プロジェクトの第2フェーズとして加える計画を、同社は発表した。 この、Prineville の施設全体の広さは 307,000平方フィートにおよび、Wal-Mart ストアーの 2つ分よりも大きくなる。

<続く>

ーーーーー

西海岸の Silicon Valley は想像がつきますが、東海岸では Verginea がデータセンター銀座という感じなのですね。 その理由は、Microsoft に関するポストで紹介していますので、ご興味のある方は、そちらをご覧ください。 このポストは、今回を含めて 3回の連載になります。ーーー A.C.

ーーーーー

<関連>
Facebook の データセンター戦略に関する FAQ _1
Facebook の データセンター戦略に関する FAQ _2
Facebook の データセンター戦略に関する FAQ _3
ーーーーー
ARM サーバー DC の 一番手が Facebook になるというウワサ
Facebook の幹部が、ARM サーバーのウワサを否定
わずか四半期の間に、サーバー数が倍増した Facebook の事情
Facebook の HDFS クラスターは 21 PB !!!

国内で提供される eBook デバイスの最新情報を一覧

Posted in Books, Miscs by Agile Cat on October 1, 2010

 

親しくしていただいている、下川和男さんから頂いた情報です。 先行する iPad や、Kindle、Sony に続いて、Samsung、Sharp、Toshiba、Microsoft が続き、もう、何が何だかわからない状態だった Agile_Cat にとっては、涙が出るほど有難い資料です。 おそらく、みなさんも同じではないかと思います。 ーーー A.C.

クリックで拡大↓

ebook-shimokawa

PDF で頂きましたが、ビットマップにしてしまったので、図の中の Link を以下にコピーしておきます。 ご利用ください。

Apple iPad: http://www.apple.com/jp/ipad/
Amazon Kindle: http://japanese.engadget.com/2010/07/28/kindle-wifi-139-3g-189/
SONY Reader:
http://japanese.engadget.com/2010/09/01/sony-reader/ 
Sharp GALAPAGOS: http://www.sharp.co.jp/mediatablet/ 
Samsung Galaxy Tab: http://japanese.engadget.com/2010/09/02/android-galaxy-tab/ 
Toshiba Folio 100: http://japanese.engadget.com/2010/09/02/android-folio-100/ 
Microsoft Slate PC: http://onkyodirect.jp/pc/slate/ 
XMDF3: http://special.nikkeibp.co.jp/ts/article/a00i/106510/ 
Blio: http://www.blio.com/ 
Reader Store 凸版 au 朝日: http://ebookstore.sony.com/ 
Space Town: http://www.spacetown.ne.jp/ 
Toshiba Book Space: http://toshibabookplace.com/

なお、原本の PDF は、以下の下川さんのブログから DL できます:
http://bizpal.jp/eijyo/02037

ーーーーー

このまま混戦状態が続くのか、どれかが抜け出すのか、まったく予想がつきません。 それにしても、この資料、とっても助かるぅ ~~~ A.C.

ーーーーー

<関連>
Amazon Kindle 版で、Microsoft Press 本が 300冊!
Kindle と Linux にもおよぶ クロス・ライセンスを締結と、Microsoft がニュースリリース
電子ブック・リーダーの No.1 は、iPad ? それとも Kindle ?
Kindle 2 と 青キン Direct でシアワセになれました!
GIGAOM: Amazon Kindle が電子ブック戦争の勝者になる理由を説明しよう

Tagged with: ,
%d bloggers like this: