Agile Cat — in the cloud

2013年 : 世界の データセンターの マトメ

Posted in .Chronicle, Data Center Trends, Open Compute by Agile Cat on December 21, 2013

大きく躍進した、今年のインターネット・インフラたち・・・
http://wp.me/pwo1E-72y

Agile_Cat_Loupe

_  space

モバイルからインフラまでをカバーしたいと、常々 考えている Agile_Cat ですから、今年もデータセンター関連情報には力を入れてきました。 そして、この数年を振り返ってみると、データセンターへの関心が、年を追うごとに高まっているようです。 その背景には、これまでは秘密にすべきとされてきた、データセンターに関する情報が、クラウドが躍進するにつれてオープンにされていくという、状況の変化があるのだと思えます。 もちろん、金融や証券といった市場のためのデータセンターは、これからも秘密裏に運用されていくでしょう。 しかし、クラウド・プロバイダーたちはインフラを開示することで、その顧客たちに信頼性をアピールしたいと考え、また、環境への配慮なども理解して欲しいと願っているはずです。つまり、それぞれの企業における理念が、そのインフラを見ることで明らかになってくるのです。 なお、Open Compute Project(Facebook も含む)に関しては、来週にマトメをポストします!

_  space

1/09: コ・ロケーションのための、データセンター Hotsopt を探せ!
1/18: Open Compute Summit 2013 : エコロジーと Asia Pacific
3/01: Cisco が占有する スイッチ と ルーターの世界
3/04: 無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner
5/02: Facebook はプライバシーのために、10% のリソースを割り当てる
5/08: Google Glass : 新たな要求をクラウドに突き付けるのか?
5/24: シンガポール は データセンター 天国 : Equinix は語る
6/06: 空芯型ファイバーにより、光速の 99、7% に到達するテクノロジーとは?
6/22: IBM の DC 温度/湿度センサー・ロボットが凄い! まるで ルンバだ!
7/02: IBM の Flash Memory アプライアンスは、12T Bytes で 3000万円だ!
7/02: 400 Gbps の転送速度を可能にする、ノイズ・キャンセリングの理論とは?
7/02: 世界中の DownTime をライブで表示:Pingdom の素敵なマップ
7/19: SoftBank と Bloom Energy が提携:最新の燃料電池が日本にやってくる!
8/18: Google が 5分ほど落ちた : そしたら 5千万円ほど 吹っ飛んだらしい
8/19: Google のダウンは数分で収まったが、Microsoft は数日を要してしまった
8/20: 今度は Amazon.com がダウン : US リージョンで 約 45分間
8/28: Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう
9/18: Equinix の Cross-Connects が、110,000 接続に達したらしい
9/25: Google のインフラ投資額 : これまでに $21B をデータセンターに!
10/02: クラウドから特許を追放するって、ステキ すぎます Google 先生
10/08: インターネットの世界を、海底ケーブル・マップから眺めてみる
10/10: SDN はテクノロジーではない : ユースケースとして捉えるべきだ
10/22: Alcatel-Lucent の海底ケーブルが、31Tbps の記録を達成!
10/29: Google の洋上データセンター : SF に続いて 東海岸にも出現!
10/31: NTT は DC 事業者 RagingWire を買収し、国際戦略の要とするのか?
11/18: Data Center の調査 : DC 内 IP トラフィックが 2017年には 3倍に増大
11/28: Cisco の悩み : 楽観できない見通しと、低迷する株価
12/02: Data Centers の調査 : データセンターの効率を多角的に考える
12/10: Google Load Balancing : 100万リクエスト/秒を達成!
12/12: 世界のデータセンター・スペース : 余っているのか? 不足しているのか?

_  space

datacenter_55こうして、この 1年の動きを眺めてみると、計算能力の上昇とメモリの低価格化により、コンピューティング密度が一挙に高まってきたと感じられます。 そこに、光の活用が加わり、キャパシティとスピードを売りにしたデータセンターが、経済性を確保した上で、インターネット・インフラを新たな次元へと、引っ張りあげているような感じです。 おそらく、来年は、データセンター運用における効率化が、大きなテーマとなっていくはずです。 それを実現するためには、SDN や DCIM などの洗練が、欠かせない要因となるでしょう。 また、これだけインフラが整備されてきたのであれば、インターネット接続の在り方も再考すべきという、議論も熱を帯びてくるでしょう。 年明け早々の、1月の Agile_Cat は、Open IX にフォーカスしていきますので、どうぞ、お楽しみに!image

今度は Amazon.com がダウン : US リージョンで 約 45分間

Posted in .Selected, Amazon, Data Center Trends by Agile Cat on August 20, 2013

Amazon’s U.S. front end web site went down (and is now back up)
http://wp.me/pwo1E-6vR

By
Stacey Higginbotham
http://gigaom.com/2013/08/19/amazons-u-s-front-end-web-site-is-down/

_ Gigaom

photo: Flickr / William Christiansen

Summary: Amazon’s home page went down Tuesday. There’s no word on the cause, but this is the second big site outage in the last few days, given Google’s outage on Friday.

Summary: Amazon のホームページが、火曜日にダウンした。その原因について説明はないが、金曜日にサービを停止した Google に続いて、この数日間で生じた。大規模なサイトの停止となる。

Update: This story was updated through at 12:45 to reflect to new information and culmination of the outage.

Update: このストーリーは、サービス停止に関する新しい情報と状況を反映させるために、12:45 までアップデートされている。

Amazon.com, the front end of the Seattle-based retailing giant, went down on Monday afternoon for about 45 minutes, although the company’s cloud computing services stayed up and running. It’s unclear what was behind the company’s problems, although Google, another giant internet company has experienced a major, and rare, outage on Friday, just a few days before Amazon’s.

Seattle ベースのリテール・ジャイアントである Amazon.com だが、そのフロント・エンドが月曜日(8/19)の午後に、約45分間にわたってダウンした。 ただし、同社のクラウド・コンピューティング・サービスはダウンすることなく、走り続けている。 同社における問題の背後に、何があったのかは不明だ。もう一方の、インターネット・ジャイアントである Google も、Amazon の数日にあたる先週の金曜日に、とても珍しい、大規模なサービス停止を引き起こしている。

During, the outage regional Amazon sites were running, as were sites of Amazon-owned companies including Zappos and Diapers.com. The incomplete nature of the outage and some basic testing led Matthew Prince, the CEO of CloudFlare to note that, “The network routes are up and running for amazon.com. This appears to be a problem somewhere in the application or internal network and just for Amazon.com.”

このサービス停止が起こったとき、対象となるリージョンで稼働していたいのは、Amazon.com が所有するいくつかのサイトであり、その中には Zappos と Diapers.com も含まれる。 この障害がもたらした結果と、いくつかの基本的なテストにおける、不完全な性質(不一致?)を、CloudFlare の CEO である Matthew Prince は指摘している。 そして、具体的には、「 ネットワーク・ルーターは稼働しており、Amazon.com のために動いている。つまり、何処に問題があるかといえば、アプリケーションもしくはインターナル・ネットワークであり、また、Amazon.com であると思われる 」と、発言している。

The outage did take down the Kindle store, and some people reported trouble accessing and logging into Amazon’s Web Services.

この停止により、Kindle ストアが落ちている。 また、何人かの人々は、Amazon の Web Services へのアクセスとログインにおいて、問題が生じたとレポートしている。

The AWS management console experienced some hiccups beginning at 12:14pm PT and customers had some trouble logging until 12:32pm PT, although that may have been partly due to panicked AWS customers trying to ensure their instances and services were still working.

以下の、AWS マネージメント・コンソールによると、12:14 PT から、ちょっとした中断が始まっている。 そして、カスタマーのトラブル・ログは 12:32 PT まで続いている。しかし、その原因は、依然として動作しているインスタンスやサービスを確保しようとする、AWS カスタマーのパニックにあったようだ。

While Amazon’s web site outage likely resulted in a few lost sales, (and some freaked out resellers) its overall effect shouldn’t be too big. This is a far cry from an AWS outage in 2011 that took down the web sites of dozens of small and large companies for the better part of a day. And it certainly won’t be as large as Google’s outage when it comes to the internet as a whole. Google’s outage diminished global web traffic by roughly 40 percent.

Amazon の Web サイトが停止したことで、いくばくかの売上が失われたが、全体的な被害が甚大というわけではない(リセーラーたちは焦っただろうが)。この日における救いは、中小から大手にいたる、数十の Web サイトをダウンさせた、2011年における AWS のサービス停止とは、大きく異なったことである。また、インターネット全体におよぼす影響も、Google のサービス停止と比べると微々たるものである。先週の、Google におけるサービス停止により、グローバル Web トラフィックが、なんと 40% も減少したのだ

Related research

ーーーーー

TAG indexそれにしても、続くときには続くものです。Agile_Cat としても、頑張って訳しましたが、もう、ダウンタイムに関する記事はコリゴリです :) まぁ、それほど大きな被害にならなかったのが、不幸中の幸いですね。 Google も Microsoft もしかりですが、この規模のサービスになると、データセンター間での冗長性の持ち方が、被害を最小に押しとどめるポイントになるのかもしれませんね。今年の初めに、HighScalability に、『 Building Redundant Datacenter Networks is Not For Sissies – Use an Outside WAN Backbone 』というゲスト・ポストがありましたが、冗長性と言っても、とても多岐にわたるようです。 これからの、大きなテーマの1つなのだと思います。  image

ーーーーー

<関連>

Google が 5分ほど落ちた : そしたら 5千万円ほど 吹っ飛んだらしい
Google のダウンは数分で収まったが、Microsoft の Outlook は数日を要してしまった
Amazon AWS の障害を総括すると、クラウドの勝利が見えてくる_1
Amazon AWS の障害を総括すると、クラウドの勝利が見えてくる_2

Google のダウンは数分で収まったが、Microsoft の Outlook は数日を要してしまった

Posted in .Selected, Data Center Trends, Microsoft by Agile Cat on August 19, 2013

Google Goes Down For Minutes, Microsoft’s Outage Lasts For Days
http://wp.me/pwo1E-6vw
Julie Bort – Aug 18, 2013, 12:03 PM
http://www.businessinsider.com/microsoft-apologizes-for-outage-2013-8

_ Business Insider

Microsoft has apologized for an outage with Outlook.com that has dragged on for about three days. It kept some people from accessing their email, People app and SkyDrive cloud storage.

約3日間にもおよんだ、Outlook.com のサービス停止について、Microsoft が謝罪しているそれにより、一部の人々は、自身の Email/People App/SkyDrive Cloud Storage にアクセスできない状況に陥ってしまったのだ。

Stephen Lam, Getty Images
Microsoft CEO Steve Ballmer

While Microsoft’s apology letter says that service is now restored, according to Microsoft’s status dashboard, everything still isn’t hunky dory. As we write this, the calendar app is still down for some people.

Microsoft からの謝罪の文面によると、それらのサービスは、すでに復旧されたとなっているが、依然として Microsoft 自身のステータス・ダッシュボードには、充分ではないという状況が示されている。私たちが、この記事を書いている時点で、一部の人々は、また Calendar App にアクセスできていない。

The outage gives Microsoft a black eye considering it’s Scroogled ad campaign is trying to scare people away from Gmail and towards Outlook.com.

今回のサービス停止は、Scroogled 広告キャンペーンにより人々を恐ろしがらせ、Gmail から Outlook.com へと移行させようとしていた Microsoft に対して、大きな打撃を与えるだろう。

And the fact that Microsoft was forced to apologize for an Outlook.com outage just a few months ago, in March. And the fact that Microsoft has now tightly integrated Windows Phone and Windows 8 with some of these services.

Microsoft には、わずか数ヶ月前である 3月に、Outlook.com の停止について、謝罪を余儀なくされたという事実がある。そして、さらに、Windows Phone および Windows 8 と、それらのサービスを密に統合しているという現実もある。

On top of that, Microsoft just launched a big promotion to prove to business customers that the business version of its cloud, Office 365, is reliable and won’t go down much.

その上で Microsoft は、自身のクラウドおよび、Office 365 のビジネス・バージョンは信頼性が高く、また、あまりダウンしないことを、ビジネス・カスタマーたちに証明するための、ビッグ・プロモーションを開始したところである。

Compare this with Google’s problems on Friday. When Google suffered an almost unprecedented outage, crashing all services including search, it took some 40% of Internet traffic with it, by some accounts. That shows how frighteningly reliant the Internet is on Google, but it also shows how rare it is for Google to falter in a big way. The downtime lasted all of a couple of minutes.

金曜日に起こった、Google のダウンと比較してほしい。ほとんど前例がないとも言える、大規模なサービス停止に Google が見舞われたとき、その検索などを含む、すべてのサービスがクラッシュしていた。いくつかのアカウントにおいては、それらを用いるインターネット・トラフィックは、40% にも達していたという。それが示すのは、Google に対してインターネットが、驚くほど依存しているという事実だけではなく、Google が大々的に停止することが、きわめて稀であるという現実である。そのダウンタイムは、数分間におよんだ。

SEE ALSO: The Business App 50: The Best Apps To Help You Do Your Job

ーーーーー

msこのニュースが、Agile_Cat の RSS リーダーに入ってきたのは、日付が 19日(月)に変わったころです。 ということは、アメリカの東海岸は日曜日のお昼ごろですから、そこから 3日を遡ると、現地時間で木曜日の午後から、ずっと問題が続いていたことになります。サービスが落ちたことは、さて置き、回復に時間を要することになった原因の究明が、クラウド全体に共通する問題点を、明らかにする可能性もあります。 以前の Amazon AWS のように、ぜひ、レポートして欲しいですね。__AC Stamp 2

ーーーーー

<関連>

Google が 5分ほど落ちた : そしたら 5千万円ほど 吹っ飛んだらしい
Amazon AWS の障害を総括すると、クラウドの勝利が見えてくる_1
Amazon AWS の障害を総括すると、クラウドの勝利が見えてくる_2

 

Google が 5分ほど落ちた : そしたら 5千万円ほど 吹っ飛んだらしい

Posted in .Selected, Data Center Trends, Google by Agile Cat on August 18, 2013

5-minute outage costs Google $545,000 in revenue
http://wp.me/pwo1E-6vl

August 16, 2013 4:06 PM – Dylan Tweney
http://venturebeat.com/2013/08/16/3-minute-outage-costs-google-545000-in-revenue/

_ VB Cloud

Google just went down for about 5 minutes. The outage, observed by the VentureBeat staff and confirmed by multiple Twitter reports, lasted from approximately 3:50 p.m. to approximately 3:55 p.m. Pacific time.

Google だが、ほんの 5分ほどダウンしてしまった。 VentureBeat スタッフの観察および、複数の Twitter レポートによると、このサービス停止は Pacific Time の、3:50 pm に始まり、3:55 pm に復旧したようだ。

The Simpsons
Uh oh…

It appears to have affected all of Google’s services, including the Google.com homepage, YouTube, Google Drive, and Gmail.

そして、Google.com Home Page および、YouTube、Google Drive、Gmail などを含む、すべての Google サービスに影響を与えたようだ。

As search engine expert Danny Sullivan observed, that’s a very rare occurrence. In April, Gmail and Google Drive both experienced widespread outages, but the Google.com homepage hasn’t gone offline in recent memory.

サーチ・エンジン専門家である Danny Sullivan の観察によると、それは、きわめて稀な出来事だとされる。最近の記憶だと、この 4月に Gmail と Google Drive が、広範囲においてサービスを停止したが、そのときにも Google.com Home Page はオフラインにならなかった。

Given Google’s Q2 2013 revenues of $14.1 billion, that means the company makes about $108,000 every single minute that it’s online. In other words, the outage just cost the company about $545,000 — enough to have put a couple of Lamborghinis in the Google parking lot.

Google の 2013年 Q2 の売上は $14.1 billion である。 それを前提とすると、同社の売上額は毎分 $108,000 となる。 言い換えると、今回のサービス停止による Google の損害は $545,000 であり、同社の駐車場にたくさん並んでいる Lamborghinis が、1台消えてしまった計算となる。

It’s also equivalent about about five of chief executive Larry Page’s Tesla electric car. Or about 363 Google Glass units .That’s gotta hurt.

また、CEO Larry Page のお気に入りである、電気自動車 Tesla で計算すると 5台分であり、Google Glass だと 363 個分となり、その損害たるや甚大だ。

Fortunately, everything seems to be back online now. Google users: You can breathe again.

幸いなことに、いまでは、すべてがオンラインに戻ったようであり、Google ユーザーたちは息を吹き返すことになった。

Related articles

ーーーーー

google-55a日本時間だと、17日(土)の 、朝の8時前ということですね。 Agile_Cat は、起きてはいましたが、まったく気づきませんでした。 それにしても、Google.com が落ちるとは、とても珍しいことなので、見てみたかったなぁ・・・ と思っています。 引き合いに出されている Google Drive ですが、6月のアップタイムは 99.991% とのことです。 Google.com のスコアって、見たことがないのですが、どれくらいなのでしょうかね?image

ーーーーー

<関連>

クラウドを バッチリ測定する、Cloud Harmony とは?
世界の DNS インフラも、地味ながら 頑張ってる!
Amazon AWS の障害を総括すると、クラウドの勝利が見えてくる_1
Amazon AWS の障害を総括すると、クラウドの勝利が見えてくる_2
もう SLA なんて不要だ – Google が自慢する究極のインフラ

 

クラウド・ストレージ選手権 2013 : Box/Dropbox/Google/SkyDrive の誰がチャンピオンか?

Posted in .Selected, Freemium, Research, Storage by Agile Cat on July 25, 2013

Cloud storage shoot-out 2013 – performance and reliability
http://wp.me/pwo1E-6pE
Posted in
Tech blog on July 9th, 2013
http://royal.pingdom.com/2013/07/09/cloud-storage-2013/

_ pingdom

clip_image001Are you storing your files in the cloud? If you are, which cloud storage service are you using? Storing files in the cloud is convenient, but it means you want fast and reliable access to your information at any given time. And if the service is unavailable or your Internet connection is messing up you are in a pickle.

クラウドにファイルを保存しているだろうか? もう、そうしているなら、どのクラウド・ストレージ・サービスを使用しているだろう? クラウドにファイルを保存することは便利ではあるが、それは、任意のタイミングで、自分の情報へ向けた信頼性の高いアクセスを、高速で処理することを意味する。つまり、サービスが利用できない場合や、インターネット接続が混乱している場合に、あなたは困難な状況に陥ってしまう。

Last year we investigated the reliability and performance of four popular cloud storage services: Box, Dropbox, Google Drive, and SkyDrive. And now we’ve repeated the same study a year later. Read on to find out what the situation is like in 2013.

昨年のことだが、私たちは人気のクラウド·ストレージ·サービスである、Box/Dropbox/Google Drive/SkyDrive に関して、それらの信頼性とパフォーマンスを調査した。そして、今回も、2013年の状況を確かめるために、昨年と同じ調査を再実施してみた。

2012年の調査 ⇒ Google Drive/Dropbox/SkyDrive/Box の 比較テスト- 30 日間

Uptime – Reliability

During June, our monitoring service connected once every minute to the same file stored in an account with each of these four cloud storage services. As our monitoring service does with all website monitoring checks, any downtime was verified from two different monitoring locations to avoid false positives.

テスト期間である 6月の間に、私たちのモニタリング・サービスは、4つのクラウド・ストレージ・サービス上の、それぞれのアカウントに保存されている、同一のファイルに対して分ごとに接続してきた。当社のモニタリング・サービスが、すべての Web サイトを監視しているのと同様に、ダウンタイムが偽陽性を避けるために、2つのモニタリング・ロケーションから結果を検証している。

In terms of uptime and reliability, the winner was Box. It’s the only service that scored a perfect 100% uptime. (Incidentally, that was also the case in last year’s study.) Here is the uptime of the four services (best uptime first):

アップタイムと信頼性の面において、1位は Box であった。 100% のアップタイムを獲得した、唯一の完ぺきなサービスである (ちなみに、昨年の調査でも 1位である)。 以下は、4つのサービスにおける、それぞれのアップタイムである(1位から順に並んでいる)。

  • Box – 100%
  • SkyDrive – 99.993%
  • Google Drive – 99.991%
  • Dropbox – 99.889%

Not far behind Box came Google Drive and SkyDrive both with 99.99% uptime. With uptime that high, over a month we’re only talking about a few minutes unavailability. In practice, you would hardly notice any difference between these two cloud storage services.

Box と大差のないところでに、Google Drive と SkyDrive が 99.99% のアップタイムで並んでいる。テスト期間である 6月を通じて、わずか数分でダウンタイムを、私たちは検出している。実際のところ、この 2つのクラウド·ストレージ·サービスにおいて、違いに気付く人は、ほとんどいないだろう。

Finally, Dropbox came in just behind the other three at 99.889% uptime. That means 48 minutes of downtime over the month of June. The majority of this happened June 2nd, including the longest outage of nine minutes. We should point out that this doesn’t necessarily mean that every user’s Dropbox account was unavailable for the exact same period and time. Here are all the numbers for the uptime of the cloud storage services during June 2013:

最後は Dropbox であり、99.889% アップタイムということで、三者の後塵を拝している。それは、6月2日に起こった 9分間という最長停止を含めて、この月のトータル・ダウンタイムが 48分であることを示している。ただし、すべてのユーザーの Dropbox のアカウントが、まったく同じ期間において、同じ時間だけ、利用できなかったことを意味するものではないことを、指摘しなければならない。以下は、2013年6月における、4つのクラウド·ストレージ·サービスのダウタイム一覧である。


Performance

Let’s keep in mind that these services are primarily meant for file sharing and not for performance-sensitive files and documents. Although you could, for example, serve up files for websites with at least some of these services, that’s not what they’re meant for.

初めに断っておくが、これらのサービスは、主としてファイルとドキュメントを共有するためのものであり、パフォーマンスに主眼をおくサービスではないことに留意して欲しい。たとえば、いくつかのサービスは、Web サイトのファイル・バックアップを果たすこともできるが、それは本来の意図とは異なる使い方である。

You could, therefore, argue that uptime and reliability are more important than performance, but for us both aspects are critical. Obviously you want to both upload and download your files just as fast as possible.

したがって、パフォーマンスよりもアップタイムと信頼性が重要だと主張することもできまるが、私たちユーザーにとっては、どちらも重要である。ファイルのアップロードとダウンロードは、誰であろうが、速いほうが嬉しいのである。

Last year, Dropbox was the overall performance leader, a position it has lost to Google Drive this year. The average overall response time for Google Drive was 549 ms compared to 708 ms for Dropbox. Even though Box scored a perfect 100% uptime during June, it’s also considerably slower than the two performance leaders. Here is the average overall response time of the four services (fastest first):

昨年の調査では、全体的なパフォーマンスにおいて、Dropbox が 1位であったが、今年は Google Drive に、そのポジションを奪われている。 この期間を通じた、Google Drive の平均レスポンス・タイムは 549 ms であり、Dropbox の 708 ms を上回っていた。 Box は、完ぺきな 100% アップタイムを達成しているが、この2つのパフォーマンス·リーダーと比べて、もかなりレスポンスが遅い。 以下は、2013年6月における、4つのクラウド·ストレージ·サービスの平均レスポンス・タイム一覧である。

  • Google Drive – 549 ms.
  • Dropbox – 708 ms.
  • SkyDrive – 920 ms.
  • Box – 1,202 ms.

Worth noting is that, with one exception, all services exhibited faster access times from the North American parts of our monitoring network compared to our European locations. This was also the case last year. The exception to this was Dropbox, which actually showed slower access from North America compared to Europe. Like last year, Google Drive was the service that showed the smallest difference between Europe and North America. You can see all the details in this chart:

注目に値する 1つの例外を除いて、すべてのサービスにおけるパフォーマンスは、私たちの本拠である Europe の平均よりも、North American での平均の方が優れていた。 この傾向は昨年と同じである。 そして、例外というのは Dropbox であり、Europe よりも North American が遅いという結果を示している。また、Europe と North American の差が最小だったのは、昨年と同様に Google Drive であった。 その詳細については、上記のチャートを参照して欲しい。

Conclusion

The conclusion from our 2013 cloud storage shoot-out is that the reliability of these consumer-grade services is pretty good. And there’s been little change since last year in this regard. The average of the uptime of the four services has dropped only about 0.02 percentage points since our study last year.

2013年 クラウド・ストレージ対決における私たちの結論は、これらのコンシューマ向けサービスの信頼性が、かなり高いという点に集約される。 そして、この点において、昨年との変化は些細なものとなっている。 具体的に言うと、昨年と比較して、4つのサービスの平均アップタイムは、わずか 0.02% ポイントほどだが下落している。

In terms of performance, Google Drive has taken over the speed title from Dropbox. Together with SkyDrive, Google Drive has improved its performance from last year. Both Box and Dropbox suffer worse performance in this study compared to the one a year ago.

パフォーマンスの観点では、Google Drive が Dropbox から、スピード・タイトルを奪取している。また、SkyDrive もの Google Drive と同様に、昨年よりも性能を向上させている。 そして、Box と Dropbox が、昨年と比べて、パフォーマンスの悪化に苦しんでいる。 以上が、私たちの調査における結論である。

Which cloud storage service are you using? Are you happy with its reliability and performance? Let us know in the comments below.

あなたは、どのクラウド・ストレージ・サービスを使用しているだろうか? あなたは、その信頼性と性能に満足しているだろうか? 何かあったら、記のコメント欄で教えて欲しい。

Image (Top) via Shutterstock.

Note: The Dropbox-file we monitored for this study was shared through a Public folder, a feature that was discontinued last year. It’s possible that the way files are now shared and made public on Dropbox can affect the performance. Since this study we have changed how the file is shared in Dropbox to the “new” way.

ーーーーー

2012年の調査 ⇒ Google Drive/Dropbox/SkyDrive/Box の 比較テスト- 30 日間

ーーーーー

Image(69)Box の Uptime 100% というのは、素晴らしいですね。 ただ、パフォーマンスの比較を見ると、ユックリでも着実にという、ポリシーなのかと思えてきます。 興味深いのは、DropBox におけるアメリカとヨーロッパの違いであり、ひょっとすると AWS の特性に依存する結果なのかとも思えてきます。 その一方で、Google Drive のネットワーク身体能力が高いのは、これまでの投資の結果なのでしょうかね? __AC Stamp 2

ーーーーー

<関連>

Dropbox for Business とは? そのエンタープライズ戦略が明らかになった
Google Drive は、もう1つの Dropbox では無いのだ!
DropBox を追撃せよ : SugarSync と Equinix がエンタープライズを狙って提携
個人で使うクラウドは 1位 Apple、2位 Dropbox、3位 Amazon : チャートで比較
必見 – 人々はクラウド・ストレージに、何を望むのかという調査の結果

世界中の DownTime をライブで表示:Pingdom の素敵なマップ

Posted in Data Center Trends, Network, Research by Agile Cat on July 2, 2013

World downtime map
http://wp.me/pwo1E-6kd
Posted in
Pingdom – June 19th, 2013
http://royal.pingdom.com/2013/06/19/world-downtime-map/

_ pingdom

SUMMARY: Check out this view of the world with what has been down in the last hour according to @Pingdom Tweet this

SUMMARY: @Pingdom Tweet によると、直近の1時間における、ワールドワイドでのダウン状況が、このビューでチェックできるようだ。

We all know that things happen on the Internet and sites go down for all kinds of reasons. If something would happen to your site you should, of course, monitor it so you are the first to know of any issues. Just as you have backup and antivirus in place for your computer, you should have monitoring in place for your websites.

それにより、私たちは、インターネット上での出来事と、あらゆる原因によりダウンしている各種サイトの状況を、すべて把握できる。もちろん、あなたのサイトに何かが起こるなら、それをモニターし、あらゆる問題について理解する必要がある。自分のコンピュータでバックアップとアンチ・ウイルスを設定するのと同様に、自身の Web サイトを適切にモニタリングする必要がある。

To give you an idea of how the Internet is feeling right now, we created this animated map of the world. It shows all the outages we have detected in the last hour (on a rolling basis). That means that whenever you visit the page it will show you the outages we’ve detected in the past hour, so it’s always giving you an up-to-date view of what’s been happening around the world as we see it.

インターネットが生き物であるなら、いま、それが何を感じているのかを、あなたに伝えるために、この世界のアニメーション・マップを作成した。このマップは、いまから1時間を逆上り (on a rolling basis)、その間に検出されたすべてのダウンをを示している。つまり、このページを、あなたが訪問するたびに、その時点から1時間前までの障害を表示することになる。したがった、世界で起こっている最新のビューが、見てのとおり提供されることになる。

___space

You can see the live version of the world map at: http://www.pingdom.com/livemap

ーーーーー

image先ほどから、この Live Downtime 情報を眺めていますが、日本には DOWN を示すサインが灯りません。それは、ネットワークとデータセンターが、高品質に保たれていることの証なのでしょう。 そして、世界中のインターネットが、これだけダウンしながらも、来る日も、来る日も、最大にして唯一の情報網として、利用され続けていることに驚きます。 まるで、何らかの生命体のように見えてきますね。image

ーーーーー

<関連>

Royal Pingdom が、クラウド API のベータ・テスターを募集!
インターネット人口の分布を、タイムゾーンごとに計算してみた
世界最大の Web サイトは ? ビジター数をチャートで比べる
Pingdom 調査  -インターネットは、この 10年間で、どれだけ成長したのか?
Facebook 国勢調査 2013 : 中国とインドを抜いて 2016 年には 世界のトップか?

 

Twitter は、データセンターの情報を開示すべきだ

Posted in Data Center Trends, Twitter by Agile Cat on July 31, 2012

Why Twitter should open up about its infrastructure
http://wp.me/pwo1E-4vx
Jul 26, 2012 – Derrick Harris
http://gigaom.com/cloud/why-twitter-should-open-up-about-its-infrastructure/#comments

_ Gigaom

If Twitter wants to remain opaque about its practices, that’s fine — but it shouldn’t expect any slack from upset users or investors. Blaming a two-hour outage on an “infrastructural double-whammy” after remaining mum on even where its data centers are located doesn’t exactly inspire confidence.

もし Twitter が、そのプラクティスに関して不透明さを残したいなら、それも良いだろう。 しかし、混乱の最中にあるユーザーや投資家が、それを大目に見ると思ったら間違いだ。 データセンターのロケーションすら秘密にしておきながら、この 2時間におよぶダウンについては「インフラに起こったダブルの不幸」と言い逃れをするようでは、信頼なんで得られっこない。

Whatever investments Twitter is making to improve the reliability of its system aren’t working, or at least not as well as they should be. The world’s favorite micro-blogging site blamed Thursday morning’s approximately two-hour outage on problems within its data centers — specifically the parallel failure of its running system and its backup system — and it’s the second time in less than two month’s Twitter’s infrastructure has brought the site down. Maybe it’s time for Twitter to talk openly about what its doing in there.

そのシステムの信頼性を改善しようとする、Twitter のあらゆる投資が機能しなかったのか、あるいは、無いも同然だったのか。 この、世界で愛されるマイクロ・ブログ・サイトが、木曜日の朝に約 2時間ほど停止したが、そのデータセンターに問題があったらしい。具体的には、運用システムとバックアップ・システムが同時に障害を起こしたということのようだ。さらに言えば、Twitter のインフラ・サイトのダウンというのは、最近では 2回目であり、前回からは 2ヶ月も経っていない。 Twitter は、何が起こったのかを、オープンに話すべき状況にあると思う。

Don’t get me wrong, Twitter has been nothing if not generous in talking about the software it builds. The company has open sourced numerous data-management tools and other pieces of code. It has occasionally (at least in 2009) been willing to share how it handles, stores, searches, and analyzes billions of data points relating to users and their tweets. But when it comes to the actual infrastructure on which this software runs?

間違えていないと思うが、鷹揚な Twitter には、彼らが作るソフトウェアについて、説明に躊躇するようなことはなかった。 同社は、オープンソースのデータ・マネージメント・ツールなどの、たくさんのコードを有している。 そして何度かは(少なくとも 2009年には)、ユーザーとツイートに関連する何十億というデータポイントを、操作/保存/検索/分析するためにコードが共有化され、実現していくための方式が検討されてきた。 しかし、それたのソフトウェアが走る、実際のインフラの話になると?

Let’s just say Twitter is less than forthcoming. The explanation of today’s outage:

とりあえず、ここでは、Twitter の説明は期待を裏切るものだ、とだけ言っておこう。 今日のダウンの説明は、以下のとおりである:

The cause of today’s outage came from within our data centers. Data centers are designed to be redundant: when one system fails (as everything does at one time or another), a parallel system takes over. What was noteworthy about today’s outage was the coincidental failure of two parallel systems at nearly the same time.

今日のダウンは、私たちのデータセンターにおける問題が原因だ。 データセンターは、冗長性を確保するよう設計されている。 つまり、1つのシステムに障害が発生すれば(全体あるいは部分にかかわらず)、並列に走っている別システムに切り替わる。 今日のダウンにおいて、注目すべきことは、ほとんど同じタイミングで、並列に走る 2つのシステムに、偶然にも障害が発生したことである。

It was minimally more descriptive in explaining the cascading bug that took the site down temporarily last month.

先月は、連鎖的なバグが一時的にサイトをダウンさせたという説明だったので、それと比べれば、少しはマシなのかもれない。

And after publicly detailing the migration into its new data center last March, Twitter has been mysteriously mum about where it’s actually running. In Salt Lake City? In Sacramento? The response from a Twitter spokesperson when asked where it’s data centers are located last June: “I can also confirm that we have multiple sites, but I won’t go into further detail.” Apparently, it now has space in Atlanta, too.

昨年の 3月に、新しいデータセンターへ移動すると公表した後、実際に運用される場所について、Twitter は口をつぐんでいる。 奇妙なことだ。 Salt Lake City なのか? Sacramento なのか? そして、昨年の 6月に、データセンターの場所について質問されたとき、Twitter のスポークスマンは、「 マルチ・サイトについては、確認することも可能だが、これ以上の詳細は述べないだろう」と発言している。 見たところでは、同社は Atlanta にもスペースを持っている

imageIf Twitter wants to remain opaque about its practices, that’s fine — but it shouldn’t expect any slack from upset users or investors. By contrast, we have a pretty good idea where Google’s data centers are and what’s going on inside them, and we know nearly everything about Facebook’s operations. When Amazon Web Services has an outage, it might take days, but provides a detailed post-mortem report explaining what went wrong.

もう一度言うが、もし Twitter が、そのプラクティスに関して不透明さを残したいなら、それも良いだろう。 しかし、混乱の最中にあるユーザーや投資家が、それを大目に見ると思ったら間違いだ。 それと対照的に、Google がデータセンターの場所を示すことや、同社内で検討されていることに、私は良い印象を持っている。さらに、私たちは、Facebook の運用するデータセンターについては、ほとんど全てを知っている。 Amazon Web Services に関しては、ダウンから数日を要するが、何が悪かったのかという、詳細な分析レポートが提供される。

Even if Twitter’s infrastructure team is filled with very smart engineers, there’s certainly benefit to be derived from public discussion about what it might be doing right and wrong. Clearly, something isn’t right; the site is down too often considering how much smaller it is than the aforementioned services. While it’s not disruptive enough to anyone’s business to warrant an AWS-style explanation, we gotta get something better than blaming two hours of downtime on an “infrastructural double-whammy.”

たとえ、Twitter のインフラ・チームが、きわめて優秀なエンジニアを抱えているにしても、正しこと間違ったことに関する公開の場での議論は、明確なメリットをもたらすだろう。 明らかに、何かが正しくないのだ。つまり、このサイトは、他のサービスと比較して、あまりにも頻繁にダウンしすぎるのだ。 AWS スタイルの説明は、あらゆるビジネスにとって、混乱をもたらすものではないなどと、そんなことを言うつもりもない。 しかし、2時間におよぶダウンについて、「インフラに起こったダブルの不幸」と言い逃れをするよりは建設的である。

Image courtesy of Shutterstock user Elnur.

Related research and analysis from GigaOM Pro

ーーーーー

imageそうなんですよね。 Twitter はデータセンターについて、その詳細を明かしませんね。 そして納得できるのは、Google や Facebook の姿勢に対する評価です。そうすることで、ほんとうの意味での信頼を得ていけるのだと、Twitter にも理解して欲しいです。言葉は厳しいですが、Derrick Harris さんの Twitterへの愛が感じられる、とても良い記事ですね :) ーーーimage

ーーーーー

<関連>

100% の再生エネルギーを目指す、Apple のデータセンター戦略
eBay のデータセンターは、燃料電池から 6MW を絞り出す
Dell が Quest を $2.4 Billion で買収 : 狙いは DC マネージメント
NTT Com が 85% を出資する、英 Gyron のデータセンター・ビジネスとは?
Open Compute が創りだす、新世代 Web のためのビジネス・モデルとは?

 

Twitter がダウンを連発 : 理由も分からないらしい

Posted in Social, Twitter by Agile Cat on July 27, 2012

Twitter users endured second major outage this summer
http://wp.me/pwo1E-4uE

Jul 26, 2012 – 9:00AM PT
http://gigaom.com/cloud/twitter-outage-makes-three/

_ Gigaom

Google Chat and Windows Azure outages are one thing. The latest Twitter meltdown, on the other hand, had Twitter addicts dealing with withdrawal. The site is back up, but still no word from Twitter on why the outage happened. Stay tuned.

Google  Chat と Windows Azure のダウンだけではなかった。 いま、起こっている Twitter のメルトダウンにより、Twitter 中毒者は退避のあおりを食らっている。 同サイトは停止しているが、このような状態に陥った理由について、Twitter からのコメントはない。 様子を見続けるしか無いだろう。

You could be forgiven for thinking the Internet was broken Thursday morning. Twitter went down as of 8:40 a.m. PST and news of that meltdown comes on the heels of high-profile outages of Google Chat and Windows Azure.

あなたは、このインターネットが木曜日の朝に壊れていたことを、仕方ないと思ったであろう。 Twitter は、8:40 a.m. PST にダウンした。 そして、Google Chat Windows Azure に続いて起こってしまった、このメルトダウンのニュースは、高い関心を集めることになった。

The only difference is that news of the Google and Microsoft snafus spread like wildfire on Twitter whereas there was no way to track the Twitter outage on, um, Twitter.

Google と Microsoft における大混乱のニュースは、Twitter 上で野火のように広まっていったが、Twitter 自身が止まってしまうと、そうならないことが唯一の違いである。う~ん。

Reached for comment, a Twitter spokeswoman said: “We’re aware of the issue and are looking into it. Will let you know when we have an update.”

Twitter のスポークスマンが、「この問題には気付いており、それを調査しているところだ。 なんらかの変化があれば、それをお伝えする」というコメントを発していた。

This outage, which surely has Twitter addicts (like say, myself)  in a panic, comes just a month after another outage rocked the popular social networking site in June.

このダウンにより Twitter 中毒者たちは(私も そう)、パニックへと確実に導かれる。この人気のソーシャル・ネットワーク・サイトは、ちょうど1ヶ月前の 6月にも、同じ状況に陥っていたのだ。

10:00 AM PST: Twitter appears to be staggering back, with Tweets getting through for a few users. The site Down Right Now continues to monitor Twitter’s outage.

10:00 AM PST: Twitter は不安定な状態となり、少数のユーザーのみがツイートできているようにみえる。 この Down Right Now サイトは、Twitter のモニタリングを継続している。

10:35 AM PST: Twitter finally appears to be back up for most users, although the company’s status blog still has no update on why the outage occurred.

10:35 AM PST: ついに Twitter は、大半のユーザーに対して停止するという状況になったが、依然として同社のブログには、その理由が示されていない。

ーーーーー

image昨夜は Twitter を触っていなかったので、まったく気付きませんでしたが、かなりの騒ぎになっていたのですね。 ちなみに、上記の Down Right Now を、日本時間の 6:30 ころに覗いてみたら、以下のような状態でした。 普通に動いているように思えるのですが、まだ、問題が解決していないのでしょうかね?

その一方で、Twitter サイトには、以下のようなメッセージが表示されています。これも今朝の 6:30 の情報なのでですが、Twitter によると、日本時間の深夜 1時ころには解決しているとのことです。 でも、理由は分かりません。

普段は、あまり意識していませんが、止まると困る空気のような存在の Twitter です。 がんばってくださ~い! ーーー image

ーーーーー

<追記>

Facebook トモダチの Kaori Kowada さんから、Twitter ブログに「Our apologies for today’s outage 」が掲載されたと、教えていただきました。 冗長化されているシステムが、同時に障害を起こしたとのことですが、オリムピック対策は進められていたはずなので、それが裏目に出たということなのでしょうかね? がんばって、このロンドンを乗り切って欲しいですね。 ーーー image

ーーーーー

<関連>

誕生日を迎えた Twitter と、Jack Dorsey による6年前の初ツイート
正確に言うと、Twitter はソーシャルじゃないんだ – Jack Dorsey
Twitter は Summify を買収して 5億ユーザーを目指す
Twitter が提供する、MySQL 関連のオープンソースとは
Twitter の広告収入が、2012年には 3倍の $400 Million に跳ね上がる<

 

%d bloggers like this: