Agile Cat — in the cloud

Facebook 脅威の Q2 決算:3000 億円の売上げと 48% の粗利率 !

Posted in .Chronicle, Advertising, Facebook, Research by Agile Cat on July 25, 2014

Facebook Crushes Earnings And The Stock Soars To An All-Time High
http://wp.me/pwo1E-7Hk
Jim Edwards – Jul. 23, 2014
http://www.businessinsider.com/facebook-q2-earnings-2014-7

_ Business Insider

Facebook reported its Q2 2014 earnings, blowing away expectations on the top and bottom lines. Revenue went up 61% to nearly $3 billion and earnings per share were $0.42 — 12 cents more than analysts predicted.

Facebook の 2014年 Q2 収支だが、アナリストたちの予測値を吹き飛ばす、素晴らしい売上と利益がレポートされた。 売上高は 61% も上昇し(前年比)、ほぼ $3 billion というレベルに至っている。 そして、1株当たり利益は $0.42 であり、アナリストたちの予測を 12 Cent も上回った。

Reuters

Facebook CEO
Mark Zuckerberg

Facebook’s gross margins increased dramatically. In essence, the company makes way more in sales this year than it used to, but its cost-base for generating those sales increased only modestly. Income from operations was a staggering $1.4 billion — this time last year it was just $562 million.

Facebook は、粗利益についても、劇的な成長を示している。具体的に言うと、昨年の $562 million から、今年の $1.4 billion へと、驚異的な伸びを示している。基本的に、同社の今年の売上は、以前と比べて大きく上昇しているが、それを支えるためのコストは、緩やかに増加しているのみである。つまり、ここに本質があるのだ。

The stock went up and flirted with $74, a rise of 4%, after the market closed, hitting an all time high.

株価は 4% ほど上昇し、$74 前後に至っている。 そして、マーケットが閉まった後も、上昇し続けている。

People underestimate how huge Facebook is. Even at this late stage of the game, it added 41 million new members last quarter. There are no other apps out there that are accomplishing anything even close to that.

人々は、Facebook の規模について、過小評価している。その成長期の後半に入った段階でも、この四半期を通じて 41 million もの、新しいメンバーを追加している。このような規模に達しているアプリは、他には1つもない。

Here are the highlights:

  • Revenues: $2.91 billion (analysts were expecting $2.81 billion). That’s a nice beat.
  • EPS non-GAAP: $0.42 (analysts were expecting $0.32) that’s also a good beat.
  • Monthly active users (MAUs): 1.32 billion, up 14%.
  • Mobile MAUs: 1.07 billion, up 31%.
  • Mobile revenue was 62% of ad revenue.

To give you a better idea of just how well-run a business Facebook has become, here’s the top of the income statement. I’ve highlighted the way margins are expanding dramatically:

Facebook のビジネスが、どれほど順調になってきているのかを伝えたいと思っている。まずは、損益計算書のトップにある、売上に注目してほしい。 同様に、線で囲んでいる、経費と粗利を見てほしい:

_  space

_  space

See the full results here.

And now for some charts! Revenues: (Remember when people used to say Facebook has stopped growing?) Sales were up 61%:

以下に、いくつかのチャートを提供する(Facebook の成長が止まったと、人々が言っていたことを、覚えているかい?)。そのセールスは、前年比で 61% の成長を見せている。

   
   

ーーーーー

これほどまでに、売上とユーザー数が増えているのに、ベースとなるサービスの運用コストが、それほど増えていないというのがスゴイですね。 ご存知のとおり、Facebook のサーバーやデータセンターは、Open Compute ベースのデザインと実装で構成されていて、それが大きく貢献した結果なのだと思います。 今年の1月のサミットでも、Open Compute のおかげで、この3年で 1200億円も節約できたと、Mark Zuckerberg が言っていましたが、こういう決算内容を見せつけられると、ナルホドと思ってしまいます。

ーーーーー

<関連>

Google と Facebook が支配する モバイル広告の世界
Youtube と Facebook がモバイル・トラフィックの 1/3 を占有している
Facebook と OCP から、ついに Wedge という名の オープン・スイッチが発表された!
木曜日の夕方に生じた Facebook のダウンは、中国からの DDoS 攻撃だったのか?
Instagram の史上最大のマイグレ:200億枚のイメージを AWS から FB Bare-Metal へ!

Google と Facebook が支配する モバイル広告の世界:それを示す1枚のチャート

Posted in Advertising, Facebook, Google, Research by Agile Cat on July 18, 2014

CHART OF THE DAY: Google And Facebook Rule Mobile Advertising — And No One Else Is Even Close
http://wp.me/pwo1E-7G0

Dave Smith – Jul. 15, 2014
http://www.businessinsider.com/google-and-facebook-rule-mobile-advertising-2014-7

_ Business Insider

Google is the king of digital advertising, particularly on mobile devices, and the latest data from eMarketer charted for us by Statista proves it.

Google は、デジタル・アドの王者であり、とりわけモバイル・デバイスで勢力を誇るという、eMarketer による最新データを、Statista がチャートにしてくれた。

_  space

Statista

Google accounts for more than half of all mobile ad revenue worldwide, while Facebook has been steadily increasing its market share of mobile ad revenue each year since 2012, the year it went public. Facebook already accounts for more than one-fifth of all mobile ad revenue. Between Facebook and Google, the companies could rake in more than 70% of mobile ad money in 2014.

Google は、グローバルなモバイル・アド収入の過半数を占めているが、Facebook も、株式を公開した 2012年以来、毎年ごとにモバイル・アドにおけるシェアを高めてきている。 そして、すでに Facebook は、すべてのモバイル・アド売上に対して、1/5 以上のシェアを占めている。  つまり、Facebook と Google という二社により、2014年におけるモバイル・アドの 70%以上の売上が、掻き集められてしまう可能性があるのだ。

ーーーーー

誰もが知っているとおり、Google が広告ビジネスを成功させる以前の IT 業界にはに、プロダクトと対価を交換する以外に、利益を生み出す仕組みはありませんでした。 そして、プロダクトからサービスへの移行が進んでいますが、いまも数多くの企業が、それらに対する対価により、事業を営んでいるという現実があります。 しかし、Google と Facebook の二社は、集客する場を作り出し、そこに広告を導入することで、多額の収益を安定して得るという、とてもスペシャルなポジションを確保しています。 もちろん、ユーザーを集めるためのアイデアやテクノロジーを、継続して磨き続けなければなりませんが、それさえ確保すれば、この世界における商品経済が続く限り、その仕組みの根幹から、尽きることのないマージンを手にしていけるわけです。 

ーーーーー

<関連>

Google と Facebook で 75% を支配するモバイル広告:それを示す1枚のチャート
だから検索はやめられない:Google/Yandex/Baidu の収益性を1枚のチャートで確認する
Yandex と Google が ディスプレイ広告で提携:世界を牛耳る同盟が誕生するのか?
今年のオンライン広告予測:Microsoft と Yahoo を一挙に追い抜いて、Facebook が2位に大躍進?
Apple App Store と モバイル・アド の売上を比較する:それを示す1枚のチャート

Agile_Cat:2014年 6月の マトメ : クラウドは何処へ向かうのか?

Posted in Asia, Facebook, Google, Mobile, Research by Agile Cat on July 13, 2014

Asia、Bare-Metal、そして DDoS・・・
http://wp.me/pwo1E-7EM

image2_thumb_thumb_thumb_thumb_thumb

いつもの通り、導線を分析するためのリフェラル数(参照数)からですが、今月は月初も忙しく、このポストで紹介するデータは、7月10日の時点で抽出したものになってしまいました。 ゴールデン・ウィークのある 5月と比べると、まぁまぁ という感じがします。 それと、チャートには反映していませんが、NewsPicks が 5月に 4000、6月に 2000というPV を得ています。7月にもリフェラルがあるのなら、新たに加えたいと思っています。

_--space15

_--space15_--space14

そして、トップ・ポストの方ですが、サブ・タイトルに記したように、アジアとベアメタルと DDoS に関するトピックが上位を占めているように思えます。 Facebook のデータセンターは非仮想ですでの、Instagram マイグレーションの記事も、ベアメタルに関連します。 そして、6月ということは、ちょうど 2014年の折り返し地点にもなります。 この半年で、モバイルとクラウドが当たり前というふうに、広く認識されるようになったと思いますが、それぞれがアジアという地域で爆発的に成長する一方で、DDoS 攻撃という厄介な問題も、そのスケールを大きく広げています。そんな感じの 6月でした。

_--space13

1: 昨日に Evernote を襲った DDoS 攻撃も、400 Gbps 規模だったのか?
2:
Instagram が達成した史上最大のマイグレ:200億枚のイメージを AWS から FB へ!
3: Google のインフラ投資は ケタ外れ:それを示す1枚のチャート
4:
Chrome が Explorer をアメリカでも逆転: 大きな流れを Adobe の調査が裏付ける
5: これからの5年で、アジアがモバイル市場を完全支配する:それを示す1枚のチャート
6: 世界最大の Web サイトは ? ビジター数をチャートで比べる!
7:
Nexus 6 は Google I/O に登場するのか? 予測される 5つの特徴を並べてみる!
8: Facebook と Open Compute から、Wedge という名の オープン・スイッチが発表!
9: 世界のメディアは モバイルのために存在する:それを示す1枚のチャート
10:
Cloud の調査: Docker によるアプリのパッケージ化が、実績を残し始めている!
11: WWDC での Tim Cook の Android 批判:いったい、誰にとってイタイ話なのか?
12: Rackspace の OnMetal サービスが、Post-VM 時代のクラウドを提起する
13:
この月曜日に、記録破りの DDoS 攻撃が仕掛けられた!
14:
木曜日の夕方に生じた Facebook のダウンは、中国からの DDoS 攻撃だったのか?
15: ファブレットが絶好調になってきた:スマホとタブレットを上回る成長
16:
iOS と Android による 世界大戦 – 2014年/5月
17:
Office For iPad がリリースされた:Word/Excel/PowerPoint の DL は ココだ!
18: Cloud の調査: すべては Hybrid へと集約されていくのか?
19:
iPad Air の LTE を調査した : これは 実質的に SIM フリー だ!
20:
なぜ、IBM は Power チップをオープン化したのか? Google の戦略は何処に?


___space3_thumb3_thumb_thumb_thumb_t[1]

なお、ランクインはしていませんが、以下のポストも、とても興味深いものなので、まだ、という方は、ぜひ ご覧ください。先月は、ダイレクト接続の話が多かったですが、それは Hybrid 絡みの動向でもあります。 そこに、Bare-Metal が加わり、Docker が後押しするような展開になるのでしょうかね? また、Post-PC 関連では、HTC に勢いが出てきた感じがします。 頑張って欲しいですね!

Hybrid がクラウド・チャンプになるという、TechNavio の分析とは?
SSD のビジネスは、2014年に 60% も拡大する : 台湾からのレポート
PC の 伸びしろを、すべて食い尽くした Tablet : それを示す1枚のチャート
Nexus 9 は登場するのか? HTC の Volantis 8.9-inch が有力候補として浮上してきた!

ーーーーー

image繰り返しになりますが、アジアの持つポテンシャルは凄まじく、モバイルとクラウドが、その成長を支えるという構造が、世界の IT の基礎を作っていくことになりそうです。 もう、すでに、その片鱗が現れていますが、まだまだ余力は十分であり、少なくとも、2020年ころまでは、世界がアジアのマーケットに注目し続けるはずです。 その中でも、これから面白くなるのはインドだと思っています。 中国に匹敵する人口を有し、中国のように障壁を作ることもなく、ブロードバンドをパスして、一挙にモバイル・ネットワークでインフラを構築しようとしています。ご興味がありましたら、Cloud News Asia の India カテゴリをご覧ください。 ちょっと、驚くはずです :)  image7_thumb_thumb_thumb_thumb_thumb[2]

ーーーーー

<関連>

Agile_Cat:2014年 5月の マトメ : 気になるダイレクト接続
Agile_Cat:2014年 4月の マトメ : がんばれ Twitter
Agile_Cat:2014年 3月の マトメ : モバイルとマネタイズ
Agile_Cat:2014年 2月の マトメ : 気合を入れた Open IX
Agile_Cat:2014年 1月の マトメ : 好調の FB と 低調の TW
Agile_Cat:2013年 12月の マトメ : ノンビリとした師走です

Instagram が達成した史上最大のマイグレーション:200億枚のイメージを AWS から Facebook Bare-Metal へ!

Posted in Bare-Metal, Data Center Trends, Facebook, Open Compute by Agile Cat on July 8, 2014

Instagram moves 20 billion images to Facebook servers
http://wp.me/pwo1E-7E4

Mike Wheatley | June 30th
http://siliconangle.com/blog/2014/06/30/instagram-migrates-20-billion-images-shifted-to-facebooks-servers/

_ Silicon Angle

Instagram announced last week that it’s picked up its billions of images stored in Amazon Web Services (AWS) and dumped them into Facebook’s own servers in one of the largest data migration operations ever undertaken.

先週のことだが、Instagram は史上最大規模のデータ·マイグレーションへの取り組みの中で、Amazon Web Services (AWS)に保存された何百億枚というイメージを取り出し、Facebook が提供する独自のサーバー群に投げ込んだと発表した。

News of the move came from this interview with Facebook infrastructure engineer and Open Compute Foundation program developer Charlie Manese. Manese revealed that the massive migration took about a year to organize and an additional month to carry out. As a result of moving onto Facebook’s infrastructure, Instagram now uses about a third fewer servers, something that significantly reduces its operating costs, Manese notes.

この出来事に関するニュースは、Facebook の Infrastructure Engineer と Open Compute Foundation の Program Developer を兼任する Charlie Manese とのインタビューから得られたものである。Manese の説明から、この大規模なマイグレーションを実施するために、約1年という長い歳月が費やされ、また、収束のために1ヶ月が追加されたことが分かってきた。この、Facebook インフラストラクチャへ移行した結果として、これまでと比べて 1/3 というスケールにサーバー数が集約され、Instagram の運用コストなどが大幅に削減されたと、Manese は指摘している。

Wired later posted an in-depth article on the transition – which has been called the “Instagration” within company circles – and notes that it was unlike any other. With previous migrations – such as with FriendFeeed – Facebook was able to shut the service down before shifting all of its data into its own shop. But Instagram is vastly larger and still growing rapidly. The operation involved shifting images from thousands of virtual machines in AWS’s cloud infrastructure to Facebook’s private data centers without disrupting service.

このマイグレーションに関する詳細な記事が、後になって Wired からもポストされているが、このチーム内では Instagration と呼ばれていたこと、そして、他のケースと異なるものであったことが指摘されている。たとえば FriendFeeed のケースなどの、これまでのマイグレーションにおいて、Facebook はシャットダウンさせてから、すべてのデータを移行することが可能であった。しかし、Instagram の場合は、その規模もきわめて大きく、また、急速に成長している最中にいる。つまり、Instagram の サービスを中断することなく、AWS のクラウド·インフラストラクチャーである数千の仮想マシンの中から、夥しい量のイメージを、Facebook のプライベート・データセンターへ移すという作業が必要であった。

Being on Facebook’s own infrastructure not only saves operational costs but means that Instagram can now take advantage of Facebook’s advertising and analysis tools. That could mean more advertising in the future. Instagram can also benefit from dozens of other tools Facebook has built, such as its spam blocking software.

Facebook のインフラストラクチャで運用することで、Instagram はコストの削減を可能にするだけではなく、Facebook の広告/分析ツールも利用できるようになる。つまり、その将来において、より以上の広告を展開できるようになるかもしれない。さらに Instagram は、すでに Facebook が組み込んでいる、スパム・メール・ブロック・ソフトウェアなどの、数多くのツールからの恩恵も受けることになる。

The sheer complexity of this migration also illustrates how companies can make huge gains in efficiency when they build their own infrastructure – just like Facebook has with its open-source, Open Compute data centers. Facebook’s own data centers run 38 percent more efficiently and are 24 percent less expensive than the average data center, according to the Open Compute website.

このマイグレーションは、かなり複雑なものであるが、独自のインフラストラクチャを構築する際に、きわめて効果的に膨大な利益をもたらす方式を、この両社は示しているのかもしれない。 まさに、それが、Facebook がオープンソースとして有している、Open Compute データセンターである。Open Compute の Web サイトによると、平均的なデータセンターと比較して、Facebook のデータセンターでは、38% の効率化と 24% のコスト削減が達成されているという。

ーーーーー

4月3日の TechCrunch が、「グリーンピース、Amazonを叩き、Apple、Google、Facebookを賞賛」というタイトルで、Greenpeace のレポートを紹介していましたが、その記事の中の図版では、Instagram が Facebook にホストされているように描かれていました。 その他にも、WhatsApp が IBM に居たり、SnapChat が Google に居たりしていて、Greenpeace の調査力に驚いた記憶があります。 それにしても、あの Instagram を止めることなく、別のクラウドへ移行させるのは、並み大抵のことではないでしょう。 そして、VM ⇒ Bare-Metal への移行により、パフォーマンスも大きく変化しているはずです。 まさに、進撃のベアメタルですね!

ーーーーー

<関連>

SAP と HANA が、Open Compute に恋する理由
Rackspace の OnMetal サービスが、Post-VM 時代のクラウドを提起する
IBM のクラウド戦略:SoftLayer London データセンターが立ち上がる
各サービス の モバイル率 を調査する : LinkedIn 22%、Facebook 65%、Instagram 97% など
ソーシャルと、若ものと、ショッピング : FB と TW を Instagram が追撃する!

Rackspace の OnMetal サービスが、Post-VM 時代のクラウドを提起する

Posted in .Selected, Bare-Metal, Data Center Trends, Open Compute, OpenStack, Rackspace, Strategy by Agile Cat on July 4, 2014

Rackspace’s OnMetal service eliminates "noisy-neighbor" problems
http://wp.me/pwo1E-7Dx

By Michael Kassner July 1, 2014
http://www.techrepublic.com/article/rackspaces-onmetal-service-eliminates-noisy-neighbor-problems/

Has VM server technology finally outlived its usefulness? Rackspace and some major clients seem to think so.

仮想サーバーのテクノロジーは、その有用性という観点で、長生きし過ぎているのだろうか? Rackspace と、主要な顧客たちは、そう考えているようだ。

Last year, Dell and HP lost a key customer — Rackspace. Up until then, the two companies supplied Rackspace with upwards of 90,000 servers. Rackspace, like Facebook, now designs its own servers using guidelines from the Open Compute Project. Quanta Computer builds the custom servers for Rackspace.

昨年のことだが、Dell と HP は、重要な顧客である Rackspace を失っている。それまで、この両社は、90,000台以上のサーバーを Rackspace に供給してきた。しかし、いまの Rackspace は Facebook のように、Open Compute Project のガイドラインを用いて、自らのサーバーをデザインしている。 そして Quanta Computer が、Rackspace のためのカスタム·サーバーを構築している。

Image: Rackspace

This past week, Taylor Rhodes, President of Rackspace, announced in this video what was in store for these servers — a new Rackspace offering called OnMetal. Put simply, Rackspace, besides providing customers multi-tenant virtual machine (VM) servers, will now rent single-tenant dedicated servers.

先週のことだが、Rackspace の President である Taylor Rhodes は、彼らの OnMetal という新しいサーバーに、ストアされるものをビデオで発表した。簡単に言うと、これからの Rackspace は顧客たちに、マルチテナントの仮想マシン(VM)サーバーを提供するだけではなく、シングルテナントの専用サーバーをレンタルすることになる。

Why single-tenant servers?

Rhodes listed a whole slew of reasons why multi-tenant VM servers were not meeting customer needs, calling the issues "noisy-neighbor" problems. The predicament was first noticed when one tenant on a VM server co-opted most of the server’s resources. Doing so caused variability in how the other VMs behaved and performed, even to the point where availability was not assured.

Rhodes は、マルチテナントVMサーバーが、顧客のニーズを満たせなかった理由を列挙し、すべてが "noisy-neighbor(迷惑な隣人)" の問題だと切り捨てている。この不具合は、VMサーバー上のテナントが、そのサーバーの大半を共有すると選択したときに、初めて気づくものである。 そのような状況では、他の VM の振る舞いや、その処理の内容に応じて、自身の VM に性能のバラつきが生じることになり、可用性が保証できないレベルに至ることもある。

Rhodes stated that clients, not seeing any other choice, attempted to thwart these issues by over-provisioning their server requirements, aggravating the situation even more. Something else often overlooked is that each VM instance adds what Rhodes considers "virtualization tax." The performance hit each additional VM instance places on the physical server.

Rhodes は、こうしたサーバーのオーバー・プロビジョニングによる問題を、他の選択肢を探すことなく阻止しようとする顧客は、さらに状況を悪化させると述べている。その他で見落とされがちなものとしては、それぞれの VM インスタンスが積み上げていく "virtualization tax” があると、Rhodes は考えている。つまり、物理サーバー上に追加された、それぞれの VM インスタンスにより、パフォーマンスが劣化していくことになる。

Image: Rackspace

One solution that eliminates the noisy-neighbor problem is to place critical services on dedicated servers in colocation centers. However, companies renting dedicated hardware lose a lot in the process. According to Rhodes, "In a colocation center, you lose the simplicity and elasticity a multi-tenant cloud gives you."

この、noisy-neighbor の問題を排除するソリューションとして、コロケーション·センター内の専用サーバーに、重要なサービスを配置するという考え方がある。しかし、専用のハードウェアーをレンタルするプロセスの中で、顧客となる企業は大きなロスを生じる。Rhodes は、「コロケーション・センターにおいては、マルチテナント・クラウドが提供するはずの、シンプルでエラスティックという特性が失われる」と述べている。

Elasticity refers to "how well the datacenter can satisfy the growth of the input VMs resource demands under both the limitations of physical machine capacities." So there’s the trade-off: performance variability vs. ease and quickness of provisioning.

ここでい言うエラスティックだが、「物理マシンのキャパシティという制約の下で、要求に応じて VM リソースを投入し、データセンターの成長を達成する」という意味を持つ。したがって、そこには、” パフォーマンスの変動性 vs 迅速で容易なプロビジョニング ” というトレードオフがある。

With Rackspace’s new service, there’s no trade-off

Rackspace took the best parts of the multi-tenant cloud and colocation services and discarded the parts that weren’t working. To do that, Rackspace took its OnMetal server design, enlisted OpenStack cloud software, (specifically Ironic, a provisioning system built for bare-metal servers), and created a service that lets providers work with non-VM servers (OnMetal) in the same manner and flexibility VM servers are provisioned.

Rackspace が選んだ方針は、マルチテナント・クラウドとコロケーション・サービスからの良いとこ取りである。そのためには Rackspace は、OpenStack クラウド·ソフトウェアを組み入れれる(ベアメタル・サーバー用に構築された Ironic プロビジョニング・システムが特徴)、OnMetal サーバーを自身でデザインすることになった。その結果として、顧客であるサービス・プロバイダーたちは、non-VM サーバー(OnMetal)を動かしながら、VM サーバーのプロビジョニングで実現される方式と柔軟性を手に入れられる。

Rhodes stated OnMetal servers:

Rhodes は OnMetal サーバーについて、以下のように述べている:

  • Are 100% solid-state, no heat (other than the Central Processing Unit), and no vibration as fans are outside the server housing;
  • Can be spun up in minutes, just like VMs;
  • Are Application Program Interface (API) driven and accessible just like VMs;
  • Do not use a Hypervisor; and
  • Are hardware specialized for database services, low-latency caching, or web-request handling.
  • 100% の独立性を持ち、自身の CPU 以外に負荷はなく、他のサーバーからの影響も排除される。
  • VM と同様に、数分でプロビジョニングを完了できる。
  • VM と同様に、API を介した駆動とアクセスを実現する。
  • ハイパーバイザーは使用しない。
  • DB サービス/低レイテンシ・キャッシング/Web リクエスト処理などにハードウェアを特化できる。

To give an example of the hardware specialization, a database-focused OnMetal server would have the following specs:

以下は、データベースに特化した OnMetal サーバーの、ハードウェア仕様のサンプルである:

  • Flash storage: 3.2 Terabytes
  • RAM: 128 Gigabytes
  • IOPS: Greater than 200,000

The Rackspace website offers the following additional details for the OnMetal service:

また、Rackspace は OnMetal サービスに関して、以下のような詳細を、その Web サイトで提供している:

  • Fast provisioning: OnMetal Servers can be provisioned in less than five minutes.
  • Integrated administration: Use the same control panel and API interfaces for both OnMetal servers and virtual-cloud servers.
  • Consistent performance: Single-tenant architecture eliminates "noisy neighbors," and no performance hits to the virtualization layer.
  • Open-source standards: Avoid being locked into a proprietary solution, as hardware and software are both open source.
  • High-performance networking: Each cabinet includes two 10Gb/s network connections in a high availability Multi-Chassis Link Aggregation with minimal over-subscription to help increase throughput and performance for your applications.
  • Fast provisioning: OnMetal Servers は 5分以内にプロビジョニングされる。
  • Integrated administration: OnMetal/VM サーバーに対して、同一のコントロール・パネルと API インターフェイスが提供される。
  • Consistent performance: シングル・テナント・アーキテクチャにより "noisy neighbors” を排除し、また、仮想レイヤによるパフォーマンス劣化も排除する。
  • Open-source standards: ハードウェアとソフトウェアはオープンソースであるため、プロプライエタリ・ソリューションにロックインされない。
  • High-performance networking: それぞれのキャビネットには、2つの 10Gb/s ネットワーク接続が含まれる。この、高可用性 Multi-Chassis Link Aggregation と、最小限の over-subscription により、アプリケーションのスループットとパフォーマンスを高レベルに保つ。

Satisfied clients

During the announcement, Rhodes introduced several Rackspace clients that are onboard with the OnMetal approach. Zach Rosen, CEO and cofounder of Pantheon Systems, said, "We’ve all been trained to think of the cloud as generic virtual machines on demand. VMs have had their decade. The future ‘Cloud’ will be built with containers deployed across bare-metal servers provisioned via API. We believe Rackspace’s OnMetal service is the future of Infrastructure as a Service.”

このアナウンスメントにおいて Rhodes は、OnMetal アプローチに賛同する、何社かの Rackspace クライアントを紹介している。Pantheon Systems の coFounder and CEO である Zach Rosen は、「 私たちの、すべてが、オンデマンドで仮想マシンを生成するものが、クラウドだと教えこまれてきた。そして VM は、その十年を享受した。しかし、これからのクラウドは、API を介してプロビジョニングされたベアメタル・サーバー上に、デプロイメントされるコンテナにより構築されるだろう。 私たちは、Rackspace の OnMetal サービスが、IaaS の未来になると信じている」と述べている。

OnMetal is available now through an early availability program, and will be in general availability by late July 2014. To learn more and to sign up for a test drive, head over to this page at Rackspace.

現時点の OnMetal は、early availability program として利用できる。 そして、一般的な運用は、7月の後半から開始される。 テスト・ドライブについては、この Rackspace のページで確認し、Sign Up してほしい。

ーーーーー

ハードウェアの性能が高まり、それかオープンソース化により低価格で提供されるようになると、サーバーを設計/構築する上での発想が、その根底から刷新されます。 ハードウェアが高価であった時代の改革者であった VM も、最先端のポジションを Bare-Metal に明け渡し、それをサポートするものへと、役割を変えていくのかもしれませんね。 San Antonio の Rackspace HQ で、第2回めの OCP Summit が開催されたのが 2012年 5月ですから、そこから 2年の月日が流れています。 頑張りましたねと、声をかけてあげたくなる、Rackspace です!

ーーーーー

<関連>

Rackspace と CERN が推進する OpenStack ハイブリッド戦略とは?
SAP と HANA が、Open Compute に恋する理由
Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
Open Compute Project : ついに Microsoft も参加を表明した!

木曜日の夕方に生じた Facebook のダウンは、中国からの DDoS 攻撃だったのか?

Posted in Facebook, Research, Security by Agile Cat on June 21, 2014

Facebook outage may have been hacker attack
http://wp.me/pwo1E-7AQ

ninemsn staff – 9:42am June 20, 2014
http://news.ninemsn.com.au/technology/2014/06/20/09/42/facebook-outage-may-have-been-hacker-attack

This visualisation shows the moment Facebook was temporarily shut down due to being the target of a ‘denial-of-service’ attack from China.

このビジュアライゼーションは、China からの DDoS 攻撃となった Facebook が、一時的にシャットダウンされた様子をを示している。

_  space

_  space

Facebook’s website and app were both unavailable for 31 minutes on Thursday evening from approximately 6:00pm AEST, making it the site’s longest outage in four years, according to the Guardian.

Facebook の Web サイトおよびアプリは、木曜日の夕方から(Australia east standard time で 6/19 の 18時から)31分間ほど使用できなくなっていた。Guardian によると、最近の 4年間で、このサイトが、これほど長時間にわたって停止したことはない。

The social network has not yet revealed what led to the downtime, prompting wild theories about its cause – including speculation that it may have been hit by a distributed denial-of-service (DDoS) attack.

Facebook は、このダウンタイムの原因について、また明らかにしていない。つまり、DDoS 攻撃に見舞われた可能性も含めて、あらゆる原因が考えられる。

DDoS attacks, which crash websites by bombarding them with so much artificial traffic that it overloads their servers, are regularly used to bring down major websites.

DDoS 攻撃とは、人工的に作られたトラフィックでサーバーに過大な負荷を生じさせ、対象となる Web サイトをクラッシュさせるものであり、大規模かつ著名な Web サイトをダウンさせるために悪用される手法のことである。

The "attack map" created by cyber security company Norse reportedly showed a spike in activity during the Facebook outage which could indicate a DDoS attack on the site originating from China.

この Attack Map は、サイバー・セキュリティ会社である Norse が作成したものであり、China からの DDoS 攻撃が、Facebook を停止に追い込んだ、ピーク時の状況を示すとされている。

"Earlier this morning, we experienced an issue that prevented people from posting to Facebook for a brief period of time. We resolved the issue quickly, and we are now back to 100 percent," Facebook said in a statement shortly after the outage. "We’re sorry for any inconvenience this may have caused."

「 私たちは、この今朝(米時間で)の問題を確認している。それにより、短時間ではあるが、ユーザーからの Facebook へのポストが妨げられている。ただし、この問題は直ちに解決され、いまは 100% の状態で稼働している。 この問題により迷惑をかけ、申し訳なく思う」と、この事件の直後に Facebook はステートメントを発している。

Facebook’s last major outage came in 2010, when a software error made the site unavailable for two-and-a-half hours.

この数年における Facebook のダウンでは、ソフトウェアのエラーにより 約 2.5時間の停止が生じた、2010年の事故が最大であった。

Author: Sam Downing. Approving editor: Simon Black.

ーーーーー

先日の Evernote に続き、今度は Facebook が攻撃されたようですね。 この DDoS 攻撃は、日本時間だと 6/19 午後 5時ころになりますが、Agile_Cat は Facebook にアクセスしていなかったので、ダウンしていることに気づきませんでした。 そして、Evernote のときのように、正常に戻るまでの時間が長引かなかったことが、不幸中の幸いだと思います。 この Norse というサイトですが、DDoS 攻撃の状況をリアルタイムに示すページも提供されています。 それを見ると、小さな規模の攻撃が常に生じている、インターネットの世界が見えてきます。

ーーーーー

<関連>

この月曜日に、記録破りの DDoS 攻撃が仕掛けられた!
Apple が 明らかにした、A7 Processor の セキュリティ機能とは?
PayPal の決済アプリが、Galaxy S5 の指紋リーダーと連携する!

Facebook と Open Compute から、ついに Wedge という名の オープン・スイッチが発表された!

Posted in .Selected, Data Center Trends, Facebook, Network, Open Compute, Strategy by Agile Cat on June 20, 2014

Facebook to share first Open Compute Switch, the Wedge
http://wp.me/pwo1E-7AG

By Juha Saarinen on Jun 19, 2014
http://www.itnews.com.au/News/388499,facebook-to-share-first-open-compute-switch-the-wedge.aspx

Operates like an FBOSS.

Social networking site Facebook says it has built and is testing its first modular network switch, the Wedge, which it claims will provide the same power and flexibility as a server.

ソーシャル・ネットワーク・サイトである Facebook が言うには、初めてのモジュール式ネットワーク・スイッチである Wedge の構築が終わり、いまはテストの段階にあるようだ。 そして、この Wedge であるが、OCP サーバーと同様の、パワーとフレキシビリティを提供するという。

The work on the Wedge has been done by Facebook as part of the Open Compute Project, alongside vendors such as Broadcom, Intel, Mellanox and Accton which also contributed designs for open switches.

Wedge に関する作業は、 Open Compute Project 一環として、Facebook により完了しているが、いくつかのオープン・スイッチのデザインをコントリビュートした、Broadcom/Intel/Mellanox/Accton といったベンダーとの協業の結果でもある。

Facebook engineers Yuval Bachar and Adam Simpkins say the Wedge switch represents a departure from current networking design paradigms, and aims to run more like the existing OCP servers the company operates already.

Facebook のエンジニアである Yuval Bachar と Adam Simpkins は、この Wedge スイッチについて、現在のネットワーク・デザイン・パラダイムからの旅立ちを表現し、数多くの企業ですでに稼働している、現在の OCP サーバーのような世界を目指していると言う


クリックで拡大 ⇒

Hardware schematic of Facebook’s OCP Wedge switch

To achieve this, Facebook added a "Group Hug" microserver that punts packets inside the Wedge.

このアーキテクチャを実現するために、Facebook は Wedge の内部に、パケットを運ぶための Group Hug マイクロサーバーを追加している。

This is based on a 64-bit ARM-based AMD Opteron A1100 processor that was announced in January this year and is substantially smaller than the switching backplane form the 16 40 gigabit per second ports.

それは、今年の 1月に発表された 64 Bit ARM ベースの、AMD Opteron A1100 プロセッサをベースにしたものであり、16 個の 40 G bps ポートを構成する、既存のスイッチング・プレーンよりも、かなり小型化されている。

Facebook said it wants a proper server in the switch to bring the devices into their distributed management systems and run a standard Linux-based operating environment.

そして Facebook は、自身の分散マネージメント・システムにデバイスを取り込み、また、標準的な Linux を運用するスイッチのための、適切なサーバーを作り上げたいと述べている。

The Linux-based operating system for the switch is aptly named FBOSS and uses existing software libraries and systems that manage Facebook’s servers. This includes initial installation, upgrades, downgrades and decommissioning of systems in data centres.

このスイッチのための Linux ベース OS は、FBOSSという適切な名前を持つものであり、また、Facebook のサーバーを管理するために、既存のソフトウェア・ライブラリやシステムを使用するものとなる。このマネージメントの概念には、データセンター内における、イニシャル・インストールおよび、アップグレード、ダウングレード、システムの廃止などが含まれている。

Both the Wedge and FBOSS are being tested in Facebook’s network at present, ahead of the release of the designs to the OCP so that other members can use them.

いま、Wedge と FBOSS の双方が、Facebook のネットワーク内でテストされており、また、OCP のメンバーたちが利用できるようにするために、そのリリースへ向けてデザインを固めている状況にある。

The Open Compute Project was launched by Facebook in 2011 and aims to innovate open, scalable data centre technologies, with hardware and software that can be modified and replaced by users.

この Open Compute Project とは、2011年に Facebook により立ち上げられたものであり、ユーザーによる改変/置換が可能なハードウェア/ソフトウェアを用いて、オープンでスケーラブルなデータセンター・テクノロジーを革新していこうという目的を持っている。

Beyond server and networking technologies, the OCP is also advancing designs for storage, chassis, power supplies, device racks, energy-efficient, low-loss data centre electricity supplies, as well as cooling of facilities.

OCP の目指すものは、サーバーとネットワークのテクノロジーだけではない。具体的に言うと、最先端のストレージ/シャーシ/パワー・サプライ/ラックをデザインし、さらには、エネルギー効率の良い、省電力型のデータセンターを、クーリングも含めて検討していく。

Facebook is aiming to build all its new data centres with OCP designs, so as to enjoy benefits of economies of scale as well as rapid deployment, and lowered power usage.

Facebook は、すべての新しいデータセンターを、OCP デザインを用いて構築しようとしている。つまり、スケールを達成するだけではなく、デプロイメントの期間を短縮し、電力の消費量を引き下げることで、経済的なメリットを実現しようとしているのだ。

ーーーーー

2013年 1月に Santa Clara で開催された Open Compute Summit では、「モノリスを破壊する」というメッセージが発信されていました。 その中の一つに、この Wedge と命名されたオープン・スイッチの構想も含まれていたのでしょう。 それから、数カ月後に方針が示され、さらに1年を経て、このようなアーキテクチャによるプロダクトが整って来たわけです。この間のヒストリーについては、OCP Japan からコントリビュートされた、OCP News Archive:Open Switch で参照できます。 以下は、Open Compute による、モノリス破壊宣言です。

すべてにおいて、最もエキサイティングなのは一連の新規開発であり、これまでのテクノロジーをさらに有効利用していくための、大きなステップを与えてくれる。 1つの産業として、私たちが直面する課題は、そこで構築/消費されていくハードウェアが、きわめてモノリシックであるという点だ。つまり、私たちのプロセッサは、私たちのマザーボードと不可分であり、さらに言えば、特定のネットワーク・テクノロジーなどとも不可分である。こうした硬直した関係で、すべてが構成されているのだ。 そのため、急速に進化するソフトウェアに追いつくことの出来ないコンフィグレーションが、不完全なシステムへと導かれ、たくさんのエネルギーとマテリアルを浪費してしまう。

ーーーーー

<関連>

Facebook と OCP : オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出
Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?
SAP と HANA が、Open Compute に恋する理由
Open Compute Project : ついに Microsoft も参加を表明した!

 

Google のインフラ投資は ケタ外れ:それを示す1枚のチャート

Posted in .Chronicle, Data Center Trends, Google, Web Scale by Agile Cat on June 17, 2014

The price of being webscale: Google spent $2.35B on infrastructure in Q1
http://wp.me/pwo1E-7Ae

k Harris – APR. 17, 2014
http://gigaom.com/2014/04/17/the-price-of-being-webscale-google-spent-2-34b-on-infrastructure-in-q1/

_ Giga Om

Summary: Google continued its heavy infrastructure spending in the first quarter of 2014, to the tune of more than $2.3 billion. It’s the third consecutive quarter the company has topped $2 billion in capital expenditures.

Summary:  Google は、2014年 Q1 においても、インフラへの支出を継続し、その総額たるや $2.3 Billion に至るという。これで、同社における $2 Billion レベルの設備投資が、三回の四半期収支をまたいで連続することになる。

ーーーーー

Google announced its first-quarter earnings on Wednesday, which included — as usual the past few quarters — an unparalleled amount of spending on data centers. The company spent $2.35 billion on infrastructure in the first quarter (much of which goes to building and filling data centers), up from $2.26 billion in last year’s fourth quarter and nearly double the $1.2 billion it spent in the first quarter of 2013.

この水曜日(4/16)に、Google が 2014年 Q1 の収支を発表した。これまでの四半期終始と同様に、データセンターに対する支出が、圧倒的なものとなっている。同社は、この四半期においてインフラストラクチャに対して $2.35 Billion を費やしているのだ(その大半は、データセンターを構築/実装に当てられている)。それは、2013年 Q4 の $2.26 Billion から増額し、また、2013年 Q1 の $1.2 Billion に対して約二倍というレベルに達している。

We have been following Google’s spending for years, because it’s such a good example of how much money web companies need to spend on infrastructure if they want to achieve massive scale in terms of users, services and data. Just think about Google’s products — search, cloud computing, Maps, Drive, Gmail, Google+ and more — and consider how many servers it takes to run them and ensure there’s enough capacity to scale them, handle failures or just experiment with new stuff. Inadequate infrastructure (in terms of both hardware and software) means a poorer user experience and less room to innovate.

これまでの何年かにわたって、私たちは Google の支出を追いかけている。なぜなら、ユーザー/サービス/データという観点でスケールしようとする企業が、Web のインフラストラクチャに対して、どれだけのコストを費やすのかという意味で、絶好の事例となるからである。 Google の Search/Cloud/Maps/Drive/Gmail/Google+ などを考えてみよう。そして、さらに、それらを走らせるために必要なサーバーの量と、スケールを実現するためのキャパティティについても考えてみよう。それは、障害に対する処理や、新しいものを試すプロセスに対しても言えることだ。つまり、不適切なインフラストラクチャでは(ハードウェアとソフトウェアの両面)、ユーザー・エクスペリエンスが劣化し、イノベーションも進まないのだ。

That’s why Microsoft spends so much on infrastructure, too, and why Facebookis ramping up its spending. In Microsoft’s latest earnings report (announced on Jan. 23, for its fiscal second quarter), the company reported it spent $1.73 billion on infrastructure.

それは、Microsoft がインフラストラクチャに多額を費やし、Facebook が支出に備える理由でもある。Microsoft における直近の収支報告書では(同社の Q2 に相当する、1/23 に発表されたもの)、インフラストラクチャに $1.73 Billion を費やしたとレポートされている。

Here’s what Google Senior Vice President and Chief Financial Officer Patrick Pichette had to say on Wednesday’s earnings call, according to a transcript published by research firm Morningstar:

以下は、調査会社である Morningstar が書き起こした、水曜日の Google の 収支報告会における、Senior VP and CFO である Patrick Pichette の発言である:

As it relates to CapEx, listen, you’re right, that we – and I’ve mentioned this in the last couple of quarters, where we have – and just a reminder to everybody, right, if you think of the CapEx categories, right, data centers first and data center construction, then production equipment, then all other facilities is kind of like the hierarchy of needs. In the case of data center construction, we have found that the option value of having more capacity on standby and available to us to grow versus not having it is actually a real strategic issue for the Company.

設備投資に関連することだが、誰もが思うように、このところの四半期決算で、私たちが説明してきた通りの状況となっている。 そして、覚えているだろうが、その設備投資の区分については、データセンターの構築が最大であり、それに続くのが基本的な設備となる。 それから先は、各種のファシリティに対して、必要性に応じた支出が生じている。データセンターを構築する場合に、私たちが検討することは、キャパシティを拡大し得るだけの、オプションとしての価値である。そのような余力を持たないという選択肢もあるが、私たちにとっては、成長のための余地を持つことが、ほんとうの意味での戦略的な課題となっている。

In that sense, if for whatever reason, we had a spike in demand that was really pronounced and sustained for a couple of quarters and we did not have the capacity, it would be a real issue strategically for us relative to the quite low cost of having the infrastructure in place. So that’s why we’re really pushing ahead of the curve, and so it’s with this view of long-term. So, from that perspective, you’re also right that, that’s the mindset we’re applying. And we’ve always said that CapEx was lumpy, so you have a good manifestation of it right now right here.

その意味において、何かの理由があったのかというのなら、このところの四半期において、明確で持続性のある需要のピークが生じていたが、それに対応するだけのキャパシティを持ち得なかったということになる。それは、適材適所にインフラを配置し、きわめて低コストでの運用を実現していくという、私たちの戦略において重要な問題となる。私たちは、時代を先取りしていきたいと、真剣に考えている。 したがって、長期的な視野に立たざるをえない。その観点からすると、現時点で私たちが推し進めている考え方を、正しく理解してもらえると思う。これまでにも、何度も言及してきたが、設備投資には大きな波が生じる。 それが、いま、来ていることを分かって欲しい。

Related research

How the mega data center is changing the hardware and data center markets March 2013
In Q3, Big Data Meant Big Dollars October 2010
Why going “green” matters for high-performance computing October 2013

ーーーーー

たしかに、これまでも、Google における設備投資には、大きな波が周期的に生じていたように思えます。 そして、2013年には、Taiwan/Hong Kong/Singapore のデータセターが立ち上がっていますし、南米でも同じような状況だったと思います。 しかし、上記のチャートを見ると、この一年での投資額は $8 Billion(8000億円)にもなります。もちろん、データセンターへの投資が抜きん出ているのでしょうが、かなりの規模での投資が、ネットワークに対しても、密かに推し進められているのでは、と思ってしまいます。とにかく、気の遠くなるような金額ですね。 

ーーーーー

<関連>

Google の 2014-Q1 収支を分析する:GigaOm
Google Cloud Platform のアジア展開が、ついに本格化してきた! from 台北
なぜ、IBM は Power チップをオープン化したのか? そして、Google の戦略は何処にあるのか?
Google の Before/After で激変したプラットフォーム勢力図:それを示す1枚のチャート
だから検索はやめられない:Google/Yandex/Baidu の収益性を1枚のチャートで確認する

%d bloggers like this: