Agile Cat — in the cloud

Storage の調査: Long-Term Low-Cost のコールド・ストレージは 5 PB へと向かうのか?

Posted in .Selected, Facebook, On Monday, Open Compute, Storage by Agile Cat on April 7, 2014

Storage: Long-Term Low-Cost COLD Storage Solutions
http://wp.me/pwo1E-7nI

By Dick Weisinger – April 4, 2014
http://formtek.com/blog/storage-long-term-low-cost-cold-storage-solutions/

_ formtek

Recently at the Open Compute Summit, Facebook VP of Engineering, Jay Parikh described how Facebook has rigged together a system based on 10,000 Blu-ray discs that fit into a single cabinet, capable of storing 1 petabyte of data.  Facebook plans to improve on this first attempt and be able to reach 5 petabytes per cabinet.  Compared to existing hard disk solutions, Parikh says that the Blu-ray solution will be 50 percent cheaper and use 80 percent less energy. It will also provide 50 years worth of durability for data stored on the discs.

先日の Open Compute Summit で Facebook VP of Engineering である Jay Parikh が説明したのは、1万枚の Blu-ray ディスクをベースにしたシステムを単一の筐体に収め、1 Peta Byte のデータをストアするという、Facebook で試している方式である。また、Facebook は、この試みを改善することで、キャビネットあたりに 5 Peta Byte をストアしようと計画している。Parikh が言うには、既存のハード·ディスク·ソリューションと比較して、この Blu-ray ソリューションでは、コストが 50% も低減され、また、電力消費量は 80% もカットされるようだ。そして、ディスクに保存されたデータに対しては、50年の耐久性という価値も提供される。

Sony, original creator of Blu-Ray technology, and Panasonic have also recently teamed up to address the need for finding a robust long-term low-cost solution for archiving content.  They’ve recently announced that they would jointly produce a 300 GB optical disc for long-term archival.  The product family is to be named “Archive Disc” and should become available in 2015.  The target is to create Blu-Ray optical discs with a 1 TB capacity and to then package them into a disc cartridge containing 12 discs.

Blu-Ray テクノロジー の発案者である Sony と、つい先日に Panasonic が提携したが、アーカイブ・コンテンツのたための、堅牢な Long-Term Low-Cost ソリューションが、そこでの取り組みとなる。 そして、Long-Term アーカイブのために、300 GB の光ディスクを、恊働で生産すると発表している。このプロダクト・ファミリーは、“Archive Disc” と命名され、2015年には利用が可能になるはずだ。そのターゲットは、1 TB の容量を持つ Blu-Ray ディスクを開発であり、また、ディスク・カートリッジ内に、12枚のディスクをパッケージ化することである。

Not everyone is buying into the Facebook strategy.  Mark Peters, a senior analyst at Enterprise Strategy Group, commented that “some of what Facebook was doing was laying out a challenge to storage vendors.  I think what they were really communicating was that there is a need for low cost reliable storage.”

誰もが、Facebook の戦略に与するわけではない。Enterprise Strategy Group のシニア・アナリストである Mark Peters は、「 たしかに、Facebook における幾つかの取り組みは、ストレージ・ベンダーへの挑戦を提起した。そして、実際に彼らが発信したことは、低コストで高信頼性のストレージに、大きなニーズがあるということだったと、私は理解している」と述べている。

Bruce Kornfeld, Interim CMO at Spectra Logic, questions the logic of using Blu-Ray for commercial purposes.  Kornfeld said that “over the last 20 years the commercial data storage industry has attempted to commercialize multiple consumer technologies including CD ROM, CD Writeable, DVD writeable, 4mm Digital Audio Tape, 8mm video tape, and VHS video tape – with mixed results.  Consumer technologies offer high-volume and typically low cost storage media. The ‘low cost’ strengths of these technologies have also led to their downfall as they lack the device robustness and data reliability required by commercial data storage applications. In addition, consumer grade drives and media just don’t last very long. Blu-ray disc drive load mechanisms are probably good to a few thousand load/unload cycles. This compares with an LTO tape drive that is rated to 250,000 load/unload cycles. As you can see – the difference in durability is substantial!”

Spectra Logic の Interim CMO である Bruce Kornfeld は、Blu-Ray の商用目的での利用に対して、論理的に無理があると、異を唱えている。 そして、「 これまでの20年間において商用データ・ストレージ業界は、複数のコンシューマ・テクノロジーを商用化しようと試みてきた。そこに含まれるのは、CD ROM/CD Writeable/DVD Writeable/4mm Digital Audio Tape/8mm Video Tape/VHS Video Tape であり、また、それらの組み合わせである。たしかに、コンシューマ・テクノロジーは、一般的にみて大容積で低コストな記憶媒体を提供する。 しかし、それらのテクノロジーにおける低コストの強みは、商用データ・ストレージ・アプリケーションで必要な、デバイスの堅牢性とデータの信頼性を欠いているため、意味を持つものになり得ない。また、コンシューマ向けのドライブやメディアは、きわめて寿命が短い。Blu-Ray ディスク・ドライブのロード・メカニズムは、おそらく数千回の Load/Unload サイクルをサポートするだけだ。250,000回の Load/Unload サイクルに対応する、LTO テープ・ドライブの仕様と比較して欲しい。 誰もが分かるように、 耐久性が段違いなのだ!」と述べている

ーーーーー

この コールド・ストレージについては、すでに「 Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは? 」という抄訳でお伝えしていますが、Sony と Panasonic が提携して、新たなソリューションを展開するというのは、とても嬉しい話ですね。 文中で、Mark Peter さんが述べているように、Open Compute の目的は、ユーザーが本当に欲しいものを、すぐれたベンダーに安価に提供してもらうことです。その意味で、Sony と Pnasonic の提携は、とても素晴しいことです。 なお、Bruce Kornfeld さんには、No Comment です :)  __AC Stamp 2

ーーーーー

<関連>

Cloud の調査:エンタープライズがクラウドを導入する5つの大きな理由
IoT の調査:テック・ベンダーたちは、一般顧客へのアプローチを模索する
Hybrid File の調査:エンタープライズに必須なのは、パブリックとオンプレミスのブレンドだ!
Web Programming の調査:Google の Dart は Javascript をリプレースできるのか?
Mobile Security の調査:エンタープライズ と Android と フリー・アプリ

Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!

Posted in .Selected, Data Center Trends, Facebook, Green IT, Open Compute by Agile Cat on March 12, 2014

Facebook: Open Compute Has Saved Us $1.2 Billion
http://wp.me/pwo1E-7j5

January 28th, 2014 – By: Rich Miller
http://www.datacenterknowledge.com/archives/2014/01/28/facebook-open-compute-saved-us-1-2-billion/

_ DC Knowledge

SAN JOSE, Calif. – Over the last three years, Facebook has saved more than $1.2 billion by using Open Compute designs to streamline its data centers and servers, the company said today. Those massive gains savings are the result of hundreds of small improvements in design, architecture and process, write large across hundreds of thousands of servers.

Facebook は直近の 3年間において、データセンターやサーバーを効率化する Open Compute のデザインを使用しすることで、$1.2 Billion 以上のコスト削減を達成したと述べている。この、膨大なコストの削減は、デザイン/アーキテクチャ/プロセスにおける小さな改善の集大成であり、それらは、無数のサーバー群をまたぐかたちで顕在化している。

Facebook CEO Mark Zuckerberg, at left, discusses the company’s infrastructure with Tim O’Reilly of O’Reilly Media yesterday at the Open Compute Summit in San Jose, Calif. (Photo: Colleen Miller)

The savings go beyond the cost of hardware and data centers, Facebook CEO Mark Zuckerberg told 3,300 attendees at the Open Compute Summit in San Jose. The innovations from Open Compute Project have saved Facebook enough energy to power 40,000 homes, and brought carbon savings equivalent to taking 50,000 cars off the road, Zuckerberg said.

ハードウェアやデータセンターにおける、こうしたコストの削減は、Facebook の収益性を超えたところでも意味を持つと、San Jose で開催された Open Compute Summmit で、CEO である Mark Zuckerberg は 3300人の参加者に語っている。Open Compute Project から始まったイノベーションは、Facebook が消費するエネルギーから、40,000 戸分の電力を削減している。それは、路上を走行する自動車で換算すると、5万台分の二酸化酸素を削減することになると、Zuckerberg は述べている。

The innovations created by Open Compute provide a major opportunity for other companies to achieve similar gains, he said “People are spending so much on infrastructure,” said Zuckerberg, who discussed Facebook’s initiatives with technology thought leader Tim O’Reilly of O’Reilly Media. “It creates a pretty broad incentive for people to participate.”

Open Compute がもたらすイノベーションにより、それぞれの企業が同様のメリットを得るという、チャンスが提供される。この Facebook の取り組みについて Zuckerberg は、「 人々はインフラストラクチャに、あまりにも多くの労力を費やしている。 そして、Open Compute は、そこに参加する人々に対して、きわめて広範囲におよぶインセンティブをもたらす」と、O’Reilly Media の思想的リーダーである Tim O’Reilly に説明していた。

An Open Legacy for Facebook

The focus on open hardware was a logical outgrowth of the way the company views the world, according to Zuckerberg. “Facebook has always been a systems company,” he said. “A lot of the early work we did was with open systems and open source.”

Zuckerberg によると、オープンなハードウェアにフォーカスすることは、世界を見据える Facebook にとって論理的な帰結となる。そして、彼は、「 Facebook は、常にシステムの企業であり続けてきた。そして、私たちが取り組んできた、その初期における成果の多くは、オープンなシステムとなり、オープンソースとなってきた」と続けている。

The $1.2 billion in savings serves as a validation of Facebook’s decision to customize its own data center infrastructure and build its own servers and storage. These refinements were first implemented in the company’s data center in Prineville, Oregon and have since been used in subsequent server farms Facebook has built in North Carolina, Sweden and Iowa.

$1.2 Billion というコスト削減は、データセンターのインフラを独自にカスタマイズし、また、独自のサーバーとストレージを構築していくという、Facebook の判断における妥当性を確認するものでもある。これらの洗練された発想は、最初に Prineville, Oregon のデータセンターに実装された後に、North Carolina および Sweden、Iowa の Facebook サーバファームに適用されてきた。

“As you make these marginal gains, they compound dramatically over time,” said Jay Parikh, Vice President of Infrastructure Engineering at Facebook.”We’re actually saving a ton of money.”

[ こうした、小さなメリットの積み上げを、長期間に渡って継続していくことで、劇的な融合が生じる。現実に、私たちは、膨大なコスト削減を達成した 」と、Facebook の Vice President of Infrastructure Engineering である Jay Parikh は述べている。

The designs for Facebook’s servers, storage units and data centers have since been contributed to the Open Compute Project, the non-profit community organization driving the open hardware movement.

Facebook の サーバとストレージのユニットおよび、データセンターのデザインは、オープンなハードウェアのムーブメントを促進する、非営利コミュニティである Open Compute Project に、ずっとコントリビュートされ続けてきた。

This happened, Parikh said, because Facebook was willing to set aside the conventional ways that servers and data centers were built, and try something new. The Open Compute Project can extend these savings to other companies, he said.

Facebook は、サーバーやデータセンターを構築する、従来からの方法と平行して、新しいことに挑戦したいと望んできたので、こうした変化が生じた、と Parikh は発言している。そして、Open Compute Project により、その他の企業でも、同じようなコストの削減が達成される。

“You really should be looking at OCP,” said Parikh. “You could be saving a lot of money.

「 ぜひ、OCP に注目してほしい。そうすれば、膨大なコストの削減が可能になる」と、Parikh は述べている。

RELATED POSTS:

Open Compute Summit, 2014
Open Compute Reports Progress on Open Network Switch
Facebook Adapts Open Compute for Colo Space
Facebook Brings Open Compute into its Colo Space
Closer Look: Facebook’s Open Compute Servers

ーーーーー

TAG indexそれにしても、$1.2 Billion というのは大きいですね。 100円で換算しても 1200億円ですから、メガ・データセンターの構築費に相当するくらいのコストが浮いたことになります。ちょうど 3年前に、Oregon のデータセンターがオープンしていますから、年間で 400億円くらいの計算になりますね。 そして、その後も Noth Carolina と、Sweden、Iowa が構築されているのですから、この数値は年々拡大していくことになります。自然環境へ影響を考えても、素晴らしいことです! 今月は、台北に OCP サーティフィケーション・センターがオープンしました。 アジアにも、このような事例がほしいですね。image

ーーーーー

<関連>

Facebook が選んだ CA の DCIM:どのように ハイパー・スケールを管理するのか?
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?
Open Compute Project : ついに Microsoft も参加を表明した!
2013年 : Open Compute Project の マトメ
2013年 : 世界の データセンターの マトメ

Microsoft の巨大データセンターが韓国に構築されるらしい:残念ながら日本は落選

Posted in .Selected, Asia, Data Center Trends, Microsoft by Agile Cat on February 21, 2014

Report: Microsoft to build US$9bn Korea data center
http://wp.me/pwo1E-7ey
13 February 2014 – Yevgeniy Sverdlik
http://www.datacenterdynamics.com/focus/archive/2014/02/report-microsoft-build-us9bn-korea-data-center

_ DC Dynamics

Microsoft is planning to build a US$9bn data center in Korea, the largest investment ever by a tech multinational in the country, Seoul based Arirang TV reported, citing officials from the company’s Korean head office.

Microsoft は Korea で、$9BN のデータセンター構築を計画しているが、同国におけるハイテク多国籍による史上最大の投資額になると、Microsoft Korea 本社のコメントを引用するかたちで、Seoul ベースの Arirang TV がレポートしている。

The Redmond, Washington, company has sent a site-selection team to the country, the English-language TV network said. Busan, the country’s second largest city on the east coast, has emerged as a “strong candidate.” Microsoft constantly expands its data center capacity around the world to support its 200-plus cloud services. Its infrastructure executives recently said there were approximately 1m servers in its data centers.

この、Washington Redmond の企業は、Korea にサイト選定チームを派遣し、また、東海岸にある同国第二の都市 Busan が有力な候補地として浮上していると、English-language TV network は述べている。Microsoft は、同社の 200種類以上のクラウド・サービスをサポートするために、世界中のデータセンター・キャパシティを継続的に拡張している。 以前に、同社のインフラ担当役員は、各データセンターにあるサーバーを合わせると、約100万台になると述べていた。

Ariran reported in 2011 that Microsoft was looking at Korea and Japan as potential locations for another Asian data center and was leaning toward the former. The company’s Korea CEO James Woo said at the time that Korea was more attractive because of Japan’s devastating earthquake and tsunami that took place earlier that year.

Ariran は 2011年にも、Microsoft がアジアのデータセンター候補地として、Korea と Japan に注目しているが、前者に傾きつつあるとレポートしていた。同社の Korea CEO である James Woo は、Korea の方が魅力的になったのは、壊滅的な地震と津波が、その年の初めに Japan で起きたからだ、と発言している。

Microsoft has been investing a lot into infrastructure over the past few years as it refashions itself from a software vendor into a services company. Its cloud portfolio includes everything from its traditional software offerings provided as a service to Platform- and Infrastructure-as-a-Service offerings under the Windows Azure brand.

Microsoft は、この数年において、ソフトウェア・ベンダーからサービス企業へと転身するために、インフラの整備に対して多額の投資を行っている。そのクラウド・ポートフォリオは、これまでの、すべてのソフトウェア・プロダクツを、

Windows Azure ブランドの下での、PaaS と IaaS に置き換えていくものとなる。

Another recent expansion by Microsoft in Asia was in Shanghai through Chinese data center services provider 21Vianet. The company provided facilities for hosting Windows Azure infrastructure. In May 2013, Microsoft announced plans to expand Windows Azure infrastructure to two regions in Japan and two regions in Australia. It also has Azure data centers in Singapore and Hong Kong.

最近の、Asia を強化するための Microsoft の投資は、China Shanghai のデータセンター・サービス・プロバイダー 21Vianet を介したものとなる。この 21Vianet は、Windows Azure のインフラストラクチャをホスティングするための機能を提供している。 2013年 5月に、Microsoft は、Japan と Australia の、それぞれの 2リージョンに、Windows Azure のインフラを拡大するという計画を発表している。なお、同社は、Singapore と Hong Kong にも、Azure データセンターを有している。

The company cited an IDC forecast that said the size of Asia’s cloud computing market (excluding Japan) would reach $16.3bn by 2016. Microsoft is also building a data center in Brazil and expanding its already massive data center presence in Dublin, Ireland, and in the US, in Quincy, Washington.

同社は IDC の予測を引用しながら、Asia(Japan を除く)のクラウド・コンピューティング市場は、2016年までに $16.3bn の規模に至ると発言している。さらに Microsoft は、Brazil にデータセンターを構築し、すでに、充分なキャパシティを持つ Ireland DublinUS Washington Quincy のデータセンターを拡張していく。

In January, in a eyebrow-raising announcement, the company said it would open source the latest servers it designed to support all of its cloud services through the Open Compute Project – a Facebook-led open source hardware design effort.

この 1月に、同社から、目を見張るアナウンスメントがあった。それは、Facebook が主導するオープンソース・ハードウェア・デザインの団体である、Open Compute Project を介して、同社における、すべてのクラウド·サービスをサポートするためにデザインされた、最新のサーバー仕様をオープンするというものだ、

Bill Laing, corporate VP of Windows Server and System Center development, told us then that release of the newest design also marked a change in the company’s cloud infrastructure strategy. Instead giving every service team control over what type of hardware and how much of it they buy to support their particular service, all services will be supported by one type of server.

同社の Corporate VP of Windows Server and System Center Development である Bill Laing は、最新デザインをリリースすることは、同社のクラウド・インフラ戦略が変化することの象徴であると、私たちに語っていた。これまでは、すべてのサービス・チームに対して、それぞれのサービスをサポートするために購入すべき、ハードウェアの種類を決定する権限が与えられていたが、それに換えて、これからは、すべてのサービスを、1種類のサーバーでサポートしていくことになる。

The company expects to save on hardware purchases as a result, because it can order much higher volumes. It will also benefit from a uniform hardware refresh cycle and easier capacity planning.

結果として、同社は、より多くのハードウェアを購入するために、その費用の削減を期待している。また、ハードウェアの更新サイクルを平準化することで、キャパシティ計画も容易になるだろう。

Recommended links

ーーーーー

TAG index新体制となった Microsoft から、大掛かりなプロジェクトの発表です。ただ、タイトルにある $9 Billion は、いくらなんでも大きすぎるので、900 Million の間違えだろうと推測しています。「韓国語の数詞に関する覚書」という資料には、韓国語にも[万]という単位があると記されています。つまり、韓国語の億を、そのまま Billion と訳してしまった可能性が高いと思われます。 とは言っても、900 Million(約900億円)という数字も、データセンター投資額としては最大級のものなので、Microsoft の力の入れようが伝わってきます。そして、残念なのが、最後まで候補に残った日本が、地震のリスクが高いということで、選定されなかったことです。ただ、その他にも、日本と韓国には大きな違いがあります。それは、電気料金であり、日本の場合は韓国の 3倍という話を聞いたことがあります。昨年11月にソウルで開催された、OCP Engineering Workshop のときの話ですが、おそらく、これが本音なんでしょうね。ac-stamp-232

ーーーーー

<関連>

Microsoft と 上海市 が提携 : 21Vianet の ローカル DC に Azure を!
Quincy に配置された Microsoft IT-PAC のフォト・ギャラリー
データセンターと地方 – どのように、Virginia 州は MS大規模 DC を誘致したのか?
Google の アジア・データセンター戦略とは?
シンガポール は データセンター 天国 : Equinix は語る

Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?

Posted in Data Center Trends, Open Compute, Storage by Agile Cat on January 29, 2014

Facebook has built a prototype system for storing petabytes on Blu-ray
http://wp.me/pwo1E-79F

By Derrick Harris – Jan 28, 2014
http://gigaom.com/2014/01/28/facebook-has-built-a-prototype-system-for-storing-petabytes-on-blu-ray/

_ Giga Om

Summary: During the Open Compute Summit in San Jose, Facebook VP of Engineering Jay Parikh shared some big statistics for the company’s cold storage efforts, including those for a protoytpe Blu-ray system capable of storing a petabyte of data today.

Summary: San Jose で開催中の Open Compute Summit において、Facebook VP of Engineering である Jay Parikh は、同社におけるコールド・ストレージに関する、いくつかの情報を共有したが、そこには、すでにペタバイト・データをストアできる、Blu-ray システムを用いるものが含まれていた。

ーーーーー

At last year’s Open Compute Summit, Facebook VP of Engineering Jay Parikh suggested the company might consider Blu-ray discs as a medium for improving durability and cutting costs for its long-term cold storage efforts. Now, Parikh said Tuesday during a keynote at this year’s event, the company is actually doing it.

昨年の Open Compute Summit でも、Facebook VP of Engineering である Jay Parikh は、Blu-ray ディスクが活用されるかもしれないと発言していたが、このメディアを用いることで、これまでの長期間において取り組んできた、コールド・ストレージの耐久性が向上し、また、コストが低減されることを示唆する内容であった。そして、今年のイベントのキーノートでは、同社が実際に、それを推進していることを発表した。

Facebook has built a prototype Blu-ray system capable of storing 10,000 discs and 1 petabyte of data in a single cabinet, with plans to scale it to 5 petabytes per cabinet. Blu-ray storage would save the company 50 percent in costs and 80 percent in energy usage over its existing hard-disk-based cold storage methods, Parikh said, and will provide 50 years worth of durability for data stored on the discs.

Facebook が開発しているプロトタイプは、10000 枚のディスクをシングル・キャビネットに格納し、1 Peta Byte ストレージを構築する Blu-ray システムのことであり、キャビネットごとの容量を 5 Peta Byte にスケールする計画も進んでいるという。そして、この Blu-ray ストレージは、同社における既存の HDD ベースのコールド・ストレージと比べて、50% のコストを低減し、80% の電力を削減し、また、ディスクに保存されたデータに対して 50年の耐久性を提供するものになると、Parikh は発言している。

That’s not the only tidbits Parikh shared about the company’s cold storage efforts, though. He said that the first site is now in production and storing 30 petabytes of data, but a second will be coming online soon. Within a couple months, Facebook expects to have 150 petabytes of data in cold storage, which is just a fraction of the 3 exabytes each facility is designed to house.

しかし、Parikh が共有したものは、同社のコールド・ストレージに関する、ちょっとしたトピックというものではない。彼が言うには、30 Peta Byte のデータをストアする最初のサイトが、すでにプロダクション・システムとして運用されており、2番目のサイトも近々に運用に入るらしい。そして Facebook は、数ヶ月以内に 150 Peta Byte のデータをコールド・ストレージに取り込む予定だが、その容量については、それぞれのファシリティで設定している、3 Exa Byte の一部に過ぎないとしている。

One other nugget worth noting from the morning as it relates to Facebook’s innovation on the storage front: In order to save money over data center-grade SSDs but still speed up the process, Facebook is now booting web servers using netbook-grade SSDs, hardware executive Matt Corddry said.

また、今日の午前中に Facebook が明らかにした、ストレージのイノベーションに関連する、もう1つの貴重な情報は、データセンター・グレードの SSD に対するコストを削減しても、プロセスの処理速度をスピード・アップできるというものだ。具体的には、ネットブック・グレードの SSD の活用であり、Facebook では、それを用いて Web サーバーをブートしていると、Hardware Executive である Matt Corddry が発言している。

Related research

The fourth quarter of 2012 in cloud January 2013
How direct-access solutions can speed up cloud adoption December 2012
The role of converged infrastructure in the data center December 2012

ーーーーー

TAG indexこういう発想は、プロダクトを売る側では、絶対に生まれてこないものなのでしょうね。文中にもあるように、これまで通りに、HDD をコールド・ストレージに使ってもらえるなら、単純に考えて、売上が2倍になるのですから。。。 しかし、ペタやエクサのレベルで、大量のデータをストアしなければならない、ユーザーのニーズを考えれば、このような方式が優れていることが一目で分かります。そして、さらに素晴らしいのが、電力コストを 80% も削減できるという点です。イイですね! これ! image

ーーーーー

<関連>

Open Compute Project : ついに Microsoft も参加を表明した!
SAP と HANA が、Open Compute に恋する理由
Linaro が OCP に参加 : Linux on ARM in DC が加速していく!
OCP オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出
2013年 : Open Compute Project の マトメ
2013年 : 世界の データセンターの マトメ

Open Compute Project : ついに Microsoft も参加を表明した!

Posted in .Selected, Facebook, Microsoft, Open Compute by Agile Cat on January 28, 2014

Microsoft joins Facebook-founded Open Compute Project, touts its ‘unprecedented’ contributions
http://wp.me/pwo1E-79A

By Kaylene Hong, jan 28, 2014
http://thenextweb.com/microsoft/2014/01/28/microsoft-joins-facebook-founded-open-compute-project-touts-its-unprecedented-contributions/

_TNW

The fifth summit of the Open Compute Project is happening on Tuesday, and Microsoft has revealed that it is the latest member to join the group, a Facebook-founded initiative that sees the company and its partners commit to developing and sharing designs for data center infrastructure.

Open Compute Project5回目のサミットが、この火曜日(1/28)に開催されるが、このグループに参加する、最も新しいメンバーの中に、Microsoft がいることが明らかになってきた。つまり、同社とパートナーたちが、データセンター・インフラストラクチャに関する成果やデザインを、この Facebook が設立/主導するイニシアチブと、共有していくことをコミットするわけだ。

Bill Laing, Microsoft’s corporate vice president for cloud and enterprise, says in a blog post that Microsoft will contribute what it calls its “cloud server specification” to OCP — referring to the designs for server hardware in Microsoft data centers that are being deployed for its largest global cloud services including Windows Azure, Bing, and Office 365.

Microsoft の Corporate VP for Cloud and Enterprise である Bill Laing は、「 Microsoft は、同社における Cloud Server Specification と呼ばれるものを、OCP にコントリビュートする」と、自身のブログ・ポストで述べている。 つまり、それは、Miicrosoft のデータセンターにおける、サーバー・ハードウェアのデザインを指し示すものであり、Windows Azure および、Bing、Office 365 などの、世界でも最大級のクラウド·サービスをディプロイするためのハードウェアが含まれる。

Microsoft says these servers are built to deal with the “enormous availability, scalability and efficiency requirements” of Windows Azure, its cloud platform. It says that compared to traditional enterprise server designs, the data center servers it has built to deliver its cloud services bring “up to 40 percent server cost savings, 15 percent power efficiency gains and 50 percent reduction in deployment and service times.”

Microsoft の発言によると、それらのサーバーは、同社のクラウド·プラットフォームである Windows Azure の、 「 きわめて大規模な環境における可用性/拡張性/効率性の要件」に対応するために構築されたものとなる。そして、従来からのエンタープライズ・サーバーのデザインと比較して、クラウド・サービスのために構築されたデータセンター・サーバー」は、最大で 40% のサーバー・コストの削減をもたらし、15% の電力効率の向上を達成し、さらには、デプロイメントとサービスに費やされる時間を 50% も削減するという。

Laing notes that Microsoft is the only other cloud service provider, other than Facebook, to publicly release its server specifications, and says the depth of information it is sharing with OCP is “unprecedented.”

Laing は Microsoft の取り組みについて、Facebook 以外のクラウド·サービス·プロバイダーとして、サーバーの仕様を公開していく唯一の存在であり、OCP と共有される情報は、「これまでにない、奥行き持つものになる」と指定している。

To show its commitment, Microsoft Open Technologies is also open sourcing the software code it created for the management of hardware operations including server diagnostics, power supply and fan control. The code is available on GitHub from today onwards.

このコミットメントを示すために、Microsoft Open Technologies も、ハードウェア運用におけるマネージメントのために作成された、ソフトウェア·コードをオープン・ソースにしている。それらは、サーバーの診断や、パワー・サプライ、ファン・コントロールを含むものである、今日から GitHub で提供されている。

“The Microsoft cloud server specification for OCP will help drive hardware innovation for cloud computing, which strengthens the Cloud OS vision to give customers a consistent platform for better IT efficiency and economics,” Laing says.

そして Laing は、「 OCP にコントリビュートされる Microsoft のクラウド・サーバー仕様は、クラウド・コンピューティングのためのハードウェア・イノベーションを促進するものになる。それは、顧客に提供される、Cloud OS のビジョンを強化するものとなり、より優れた IT のために、効率性と経済性を考慮した、一貫性のあるプラットフォームを実現していく」と述べている。

Headline image via Eric Piermont/AFP/Getty Images

ーーーーー

TAG indexアメリカ時間の 1月28日に開催される、OCP Summit に参加するため、San Jose に来ています。いまは、夜中の3時ですが、時差で眠れないので、OCP 関連の情報を探していたら、こんなニュースが提供されていました。 昨日には、登録を済ませてきたので、イベントのスケジュールも受け取って入るのですが(クリックで拡大)、詳細は明日にならないと分からないそうです。それにしても、Microsoft も OCP に参加するというのは、とても良いニュースですね。おそらく、9時から始まるキーノートで紹介されるのだと予測していますが、どんな話が出てくるのか、それが楽しみで、ワクワクしています。image

ーーーーー

<関連>

SAP と HANA が、Open Compute に恋する理由
Linaro が OCP に参加 : Linux on ARM in DC が加速していく!
OCP オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出
2013年 : Open Compute Project の マトメ
2013年 : 世界の データセンターの マトメ

2013年 : Open Compute Project の マトメ

Posted in .Chronicle, Data Center Trends, Open Compute by Agile Cat on December 28, 2013

アジアが重視される OCP コミュニティなのです ・・・
http://wp.me/pwo1E-73N

Agile_Cat_Loupe

_  space

早いもので、Open Compute Project(OCP)が立ち上がってから、この春で 2年が経ちます。正直なところ、2011年の時点で、このハードウェアに関するオープンソース・プロジェクトが、ここまでのパワーを持つとは思いもしませんでした。 OCP のチェアマンである Frank Frankovsky さんは、折に触れ、とても骨太な考え方をシンプルに語ってくれるのですが、 その中でも耳に残っているのは、以下の2つです。

・ ソフトウェアにおける OSS のメリットを、ハードウェアでも享受できるはずだ。

・ サーバーもデータセンターも、ユーザーがデザインすべきものである。

前者に関しては、GNU や Linux といった成功体験に基づいたものであり、それをソフトウェアに限定せずに、もっと柔軟に考えようという話です。 後者に関しては、クラウド・プロバイダーやデータセンター事業者といった、実際の運用を知っている者でなければ、そこでのニーズを形にできないという話です。 そして、何が OCP なのかと言えば、この 2つが OCP なのだというのが、いまの Agile_Cat の理解です。今年の OCP には、もっとたくさんのトピックがあり、その一部となってしまいますが、以下のリストを ご参照ください。

_  space

1/18: Open Compute Summit 2013 : エコロジーと Asia Pacific
1/18: Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり
1/21:
Open Compute Summit 2013 – Directory
2/05:
Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
2/09:
Open Compute Japan の FB ページが始まりました!
2/14:
OCP Summit 2013 キーノート : モノリスを破壊する!
3/04:
無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner
3/05:
Intel と Facebook が実現する、100 Gbps でラックを貫く光学素材とは?
3/14:
OCP データセンターと、高温多湿気候との関係について
8/03:
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻
4/24:
Facebook が Iowa にもデータセンターを作る? これも デカイ!
4/25:
Facebook の空母のようなデータセンターを Web モニタリング!
5/14:
Facebook の Open Compute Project がオープン・スイッチに挑戦だ!
5/21:
Open Compute について、知っておくべき 10 の事柄
5/23:
Intel の Open Compute にかける意気込みがスゴイ : 100G Photonics
7/18:
Open Compute 台湾 が 立ち上がった!
8/27:
Intel の 1.6 TB/秒 転送 : その秘密を解く
8/28:
Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう
9/19:
Facebook の DCIM : 独自のデータセンター管理システムを構築
9/20:
OCP の Rack Solution : Quanta QCT が Intel Dev Forum で発表!
10/01:
Intel が OpenStack を絶賛 : イノベーションに OSS は欠かせない
10/11:
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
11/12:
Quanta と OCP : Server/Storage/Switch/Rack などがデビュー!
11/13:
Facebook の Dragonstone : これは memcached の SSD 実装なのだ!
11/14:
Linaro が OCP に参加 : Linux on ARM in DC が加速していく!
11/26:
SAP と HANA が、Open Compute に恋する理由
11/27:
OCP:オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出

_  space

TAG indexシンプルであるが故に、OCP は人々の心をつかみ、その求心力を高め続けています。今年の 3月に Gartner が発表したレポートによると、2012年 Q4 における無印サーバーのシェアは 18% に至ったそうです。 もちろん、そこには Google や Amazon がデザインしたサーバーも含まれるため、すべてが OCP というわけではありません。 しかし、ソフトウェアと同様に、イニシアティブがベンダーからユーザーへと、徐々に移行している様子が見えてきます。

そして、Asia Pacific の OCP ですが、今年の 1月に Japan が立ち上がり、5月には Taiwan が立ち上がりました。 また、3月には Hong Kong で、11月には Korea で、ワークショップが開催されています。 OCP Japan の山口事務局長からのメールによると、現時点の会員数は 100に達しているそうです(法人+個人)。 よろしければ、以下の関連サイトも、ぜひ ご覧くださ~い!image

<関連>

Open Compute Japan Org
OCP Japan の Facebook ページ

Data Centers の調査 : データセンターの効率を多角的に考える

Posted in .Selected, Data Center Trends, Energy, Research by Agile Cat on December 2, 2013

Data Centers: A New Generation of Denser, More Power-Efficient Computing Centers
http://wp.me/pwo1E-6Yh
By Dick Weisinger – November 25th, 2013
http://formtek.com/blog/data-centers-a-new-generation-of-denser-more-power-efficient-computing-centers/

_ FormTek

“A 10-megawatt (MW) data center can use the energy of a small town at a cost of around $300,000 a month. Couple that with the fact that there are over 500,000 data centers in the world, and we’re talking about 2% of all electrical energy used globally. So, running the internet uses upwards of 406 terawatts per year, assuming 20.3 petawatt-hours as the world’s annual electrical energy consumption,” reports CleanTechnica.

「10 MW のデータセンターは、小さな町が消費する全電力に相当する、$300,000 という対価を 1ヶ月に支払っている。地球上には 50万ヶ所以上のデータセンターが存在するという事実と、その事を組み合わせると、この世界で消費される全電力の 2% が、この産業に費やされていることになる。つまり、世界中の年間での電力消費量が 20.3 Peta Watt/H であり、また、インターネットを運用することで 406 Tera Watt/H の電力が消費されると想定すると、そのような比率になる」と、CleanTechnica がレポートしている。

Making data centers more efficient can save tremendous amounts of both electric power and money. Increasingly data centers are focusing on reducing their size and improving kilowatt-per-hour performance. This is leading to a strong focus on creating energy-management information systems which can monitor performance and promote efficiency.

データセンターの効率化を図ることで、途方もない電力と、膨大なコストを、両面から節約できる。これからも、増設されていくデータセンターにおいて、その規模は縮小されるべきであり、また、より以上の性能を、同量の電力から引き出せるようにすべきである。そのためには、パフォーマンスを監視し、効率化を促進するための、エネルギー・マネージメントに関する情報システムの開発が、強い意志のもとで推進されなければならない。

In order to become more energy efficient, data centers are increasingly refreshing the servers that they house at a faster rate. Typically servers are refreshed about every four years, but when potential energy cost savings are factored in, it is actually better to instead replace servers every two years. Doing that, provides more CPU horsepower for the same amount of power and cooling within the same footprint.

電力効率を高めるために、データセンターは、これまで以上に速いサイクルで、ハウジングしているサーバーをリフレッシュしていく。一般的にみて、サーバーは 4年ごとに交換されているが、潜在的なエネルギー・コストの削減を織り込んでい場合には、2年ごとにサーバーをリフレッシュするほうが、実質的に優れた選択となる。そうすることで、より多くの CPU パワーを同量の電力から引き出すことが可能になり、また、同じ設置面積に対するクーリングの効率も高まる。

David Cappuccio, chief of research for infrastructure teams at Gartner, said that “many times, datacenter managers or facilities teams start with the following assumption: We are out of (or near) capacity in our datacenter, therefore when we build next we will need more space. If we have 5,000 square feet today we must need at least 7,500 or more to sustain our growth. The error is that the focus is on square footage, not compute capacity per square foot (or per kilowatt)… A data center manager who rethinks his organization’s floor plans, cooling and server refreshes can house the increased computing capacity in the original floor space, and help meet growing business needs indefinitely. We will witness small data center environments with significant computing growth rates maintaining exactly the same footprint for the next 15 to 20 years.”

Gaetner の  Chief of Research for Infrastructure Teams である David Cappuccio は、「 データセンター管理者や、ファシリティ・チームは、いつも、以下を前提として考え始めてしまう:いまのデータセンターでは、キャパシティが足りなくなっているので、次のものを構築するなら、より広いスペースが必要になる。 今後の成長を維持するには、いまの 5000 平方フィートに換えて、少なくとも 7500 平方フィート以上が必要となる。・・・ こうした間違えは、面積だけにフォーカスし、面積あたりのコンピューティング容量(もしくはキロワットあたりの容量)を、計算していないところから生じる ・・・ 対象となるフロアと、クーリング、サーバー更新サイクルのプランについて、再考するデータセンター・マネージャであれば、同じだけの床面積に、増大するコンピューティング容量を収容し、そのビジネス・ニーズを満たすだけの成長を、永続的に達成していける。今後の 15年〜20年 において、まったく広がらない床面積を維持しながら、また、データセンターとしては小規模でありながら、コンピューティング容量が大幅に成長していくという歴史の、私たちは目撃者となる」と発言している

ーーーーー

TAG indexこれまでにも、サーバーの交換サイクルは 3年が良いと言われていましたが、それを 2年に短縮すべきという話ですね。先月にソウルで開催された OCP のワークショップでは、Oregon および、North Carolina、Lulea、Iowa で進められている Facebook のデータセンターが、それぞれ 3棟ずつの構成になるという資料が提示されていましたが、その中の 1棟は、つねに改装中という考え方なのかもしれませんね。そして、改装が行われるたびに、消費電力とコンピューティング密度が、段階的に改善されていくのでしょう。それは、フロント・パネルなどの飾りをサーバーから無くしていこうという、最近のトレンドの論理的な裏付けだとも言えるのです。__AC Stamp 2

ーーーーー

<関連>

Hybrid の調査 : ベスト・クラウド は Private と Public のブレンドから
Data Center の調査 : DC 内 IP トラフィックが 2017年には 3倍に増大する
VPC の調査 : プライベート・クラウドの仮想化は、新しいトレンドになり得るのか?
Hybrid の調査: プライベートはハイブリッドへと変異する宿命にある
Mobile の調査 : 無償アプリが支配する モバイルの市場

SAP と HANA が、Open Compute に恋する理由

Posted in .Selected, Data Center Trends, Facebook, Open Compute, Strategy by Agile Cat on November 26, 2013

Why SAP should put HANA on Open Compute
http://wp.me/pwo1E-6Wz

Phil Wainewright | On October 3, 2013
http://diginomica.com/2013/10/03/sap-put-hana-open-compute/

_ diginomica

Those who imagine that virtualization is an essential ingredient of cloud computing must have been mystified to discover from my post on Monday that Facebook prefers not to use the technology. Instead of abstracting away the hardware layer as conventional wisdom suggests one should do in a cloud architecture, Facebook very much factors it in, with its insistence on designing its own custom-built database machine. What’s going on?

クラウド·コンピューティングには欠かせない構成要素として、仮想化テクノロジーの存在をイメージする人は、このテクノロジーを Facebook が使いたがらないという、私の月曜日 (9/30) のポストを見て、当惑しているはずだ。それに換えて、従来からの通念が示唆するようなハードウェア・レイヤから離れて、クラウド·アーキテクチャにおける抽象化を実践すれば良い。Facebook は、独自のデータベース・マシンを、あくまでも自らデザインするという主張により、その構成要素を分解しようとしている。 上手くいっているかい?

In fact it’s replication not virtualization that counts in cloud computing — the ability to scale out across an elastic multitude of identical instances.

実際のところ、クラウド・コンピューティングで重視されるべきは、リプリケーションでありバーチャリゼーションではない。 言い換えれば、膨張性と多数性を備えた一卵性のインスタンスを横断するかたちで、スケールアウトしていく能力が重要となる。

How replication is achieved depends on the context. In an IaaS environment like Amazon Web Services (AWS), which seeks to host a large and diverse population of computing loads, virtualization is a crucial agent of homogenization across the computing stack that hosts those loads. For Facebook, where the load is already homogenized because the vendor is providing the same application to hundreds of thousands of users, virtualization is an unnecessary overhead.

リプリケーションの達成方式は、そのコンテキストに依存する。たとえば、Amazon Web Services(AWS)のような IaaS 環境では、大規模かつ多様な個体の集団を、コンピューティングの負荷の中に抱えようとする。それが仮想化であり、これらの負荷をホストするコンピューティング·スタックを貫く、均質化のための重要なエージェントとなる。その一方で、Facebook の場合は、すでに負荷が均質化される。なぜなら、このベンダーが、無数のユーザーに対して、均一化されたアプリケーションを供給しているからである。したがって、仮想化は不要なオーバーヘッドになる。

Bare metal cloud

This is why the future isn’t going to converge on a tiny handful of global cloud computing giants all competing to provide identical IaaS services. Although there will be giants in that space, there will also be huge fragmentation of the market across specialist providers of application-specific cloud computing.

この理由により、一握りのグローバル・クラウド・コンピューティングの巨人たちだけが、競い合って IaaS サービスを提供するという未来は有り得ない。もちろん、そのスペースに巨人たちは存在するだろうが、個々のアプリケーションに適したクラウド·コンピューティングを提供する、専門的なプロバイダーたちにより、このマーケットは大きく分断されていくだろう。

So Salesforce.com on Exadata is one template for apps that use very large Oracle 12c database instances. Facebook provides a very different template based on using its Open Compute designs. As I noted on Monday, OCP server designs are starting to find their way into enterprise datacenters mainly because of “the lack of a pre-existing industry standard for cloud datacenter servers.”

したがって、Exadata 上の Salesforce.com は、きわめて大規模な Oracle 12c データベース・インスタンスを使用する、アプリケーションのためのテンプレートになっている。また、Facebook が提供するテンプレートは、Open Compute デザインの活用をベースにした、まったく異なるものとなる。月曜日に指摘したように、OCP サーバーのデザインにより、Facebook はエンタープライズ・データセンターにおける方向性を見つけ始めている。 その理由は、「クラウド・データセンターにおけるサーバーに関しては、業界スタンダードが欠如している」という事実に起因する。

Many other templates will emerge. Expect to see some interesting developments once the first generation of 64-bit ARM servers comes out. The ARM architecture is best exploited by parallelizing similar workloads such as large numbers of web servers rather than virtualizing many different workloads.

その他にも、数多くのテンプレートが台頭していくだろう。 まず、第一世代の 64 Bit ARM サーバーが登場した後に、いくつかの興味深い展開が期待される。 ARM アーキテクチャにとって最適なものとしては、さまざまなワークロードを仮想化するよりも、たとえば大量の Web サーバーのような、同一のワークロードを並列化するものがある。

Indeed it’s already possible to rent ‘bare metal cloud’ in which you pay by the hour for your preferred hardware configuration. Bigstep, a London-based venture launched by an established global hosting provider, quotes benchmarks that show virtualization decreases performance by anything between 20 and 80 percent, especially for I/O intensive workloads such as big data. It is therefore targeting its offering at operators of large-scale big data platforms, who have most need to squeeze every ounce of performance out of the underlying computing.

たしかに、好みのハードウェア・コンフィグレーションに対して、時間単位で対価を支払うベア・メタル・クラウドを借りることが、すでに可能となってる。著名なグルーバル・ホスティング・プロバイダにより立ち上げられた、London ベースのベンチャー Bigstep だが、あらゆるケースにおいて仮想化は、パフォーマンスを 20%〜80% の間で劣化させるというベンチマークを引用している。そして、とりわけ、I/Oに負荷が集中するワークロードである、ビッグデータなどのケースに、その傾向が見られるとしている。したがって同社は、コンピューティングにおける、すべての基本パフォーマンスを引き出す必要のある、大規模 Big Data プラットフォームのオペレータに、そのサービスを提供しようとしている。

Honed for HANA

Where else will this lead? Well if big data is a beachhead use case for application-specific cloud computing stacks, then perhaps SAP should be looking closely at teaming up with the Open Compute Project (OCP) to develop an open-source hardware specification that’s honed for HANA.

この話は、何処につながっていくのだろう? もし、Big Data が、アプリケーションに特化したクラウド·コンピューティングの、橋頭堡となるべきスタックのユースケースであるなら、おそらく SAP は、HANA のために磨きをかけられた、オープンソース・ハードウェア仕様を開発するために、Open Compute Project (OCP) との連携を模索しているはずである。

This would be a fitting follow-on from its BW(Business Warehouse) on AWS offering and also benefit many of its customers who currently face huge problems when they come to implement HANA in-house.

それは、 BW(Business Warehouse) on AWS が提供するものを、適切に継続するものになるだろう。そして、インハウスで HANA を実装するときに、深刻な問題に直面する数多くの顧客に対しても、大きなメリットをもたらすものになる。

As my diginomica colleague Dennis Howlett put it when he broached the idea in an email conversation earlier this week:

今週の初めに、diginomica の同僚である Dennis Howlett と、この件について電子メールでやりとりしたとき、彼は以下のように述べていた:

“Provisioning HANA is a dog’s breakfast because there are seven approved hardware manufacturer configurations, all of which have a different approach. OCP might represent a way out of this spaghetti soup in the context of a soon (so they say) OLTP/analysis ‘version’ of the HANA architecture.”

HANA のプロビジョニングは、とても困った問題を抱えている。なぜなら、7種類もの、ハードウェア・マニファクチャ・コンフィグレーションが承認されており、そのすべてが異なるアプローチを持っているからだ。(彼らの言う)HANA アーキテクチャの OLTP/Analysis Version のコンテキストにおいて、このスパゲッティ・スープから抜け出す方式を、近々に OCP が示す可能性もある。

This it must be said is pure speculation, but a single, open-source hardware reference design could be a considerable help to enterprises aiming to implement HANA. Instead of every customer paying a tidy sum to systems integrators or spending in-house resources on separately working out the best way to get optimum performance, the open source model allows those resources to be pooled, achieving a better result at a lower cost for each participant.

それが、純粋な憶測であることを断っておくべきだが、オープンソースによる単一のハードウェア·リファレンス·デザインが、HANA を実装しようとするエンタープライズを、しっかりと支援する可能性があるのだ。 これまで、最適な分業を達成することで、最適なパフォーマンスを得てきた顧客たちは、そのためにシステム·インテグレーターに莫大な費用を支払い、また、社内のリソースを消費してきた。 それに代えて、このオープンソース・モデルは、低コストで良好な結果を達成するたのリソース・プールを、コミュニティに参加する人々により実現していくことになる。

Scale-out challenge

The big potential stumbling block in this potentially rosy picture is HANA’s ability to scale out across multiple commodity hardware boxes (noting that the definition of ‘commodity’ in this context extends to include Facebook’s design for a server incorporating a 3.2-terabyte solid-state flash memory card). Facebook has an OCP design for database machines because it runs hundreds or thousands of them at a time. If one fails, the provider just brings up another node without the end user ever noticing a glitch.

このバラ色の未来において、障害をもたらすかもしれないパートは、多種多様なコモディティ・ハードウェア・ボックスを横断して、全体にスケールアウトしたいくための HANA の能力である(この文脈におけるコモディティの定義は、3.2 TB のソリッドステート・フラッシュ・メモリ・カードを組み込んだ、Facebook デザインによるサーバーまで含むように、拡大解釈される点に注意)。Facebook がデータベース・マシンに OCP デザインを適用しているのは、無数のデータベースを同時に実行するという、必要性に迫られるからである。そして、いずれかに障害が発生しても、このプロバイダーは、それをエンドユーザーに気付かせることなく、他のノードを投入することで対処してしまう。

Can HANA achieve the same effortless fault tolerance? It has been validated to scale out across 12 nodes in production systems and is capable of much more according to SAP executive board member Vishal Sikka, quoted in that announcement in May last year:

HANA は、同じレベルの、しかも手間いらずのフォールト・トレランスを実現できるのか? SAP の Executive Board Member である Vishal Sikka の、昨年 5月のアナウンスメントを引用すると、プロダクション・システムにおいて、12ノード間をまたいだスケールアウトが検証されているようだ:

“Recently, in our research labs, we have assembled the largest SAP HANA system that scales to 100 nodes, 4000 computing cores and 100 TB in DRAM.”

最近のことだが、私たちのリサーチ・ラボにおいて、最大級の SAP HANA システムがアセンブリされた。そこでは、100ノード/4000コンピューティング・コア/100 TB DRAM まで、スケーリングが実現できている。

Verdict

All of this is an interesting thought experiment. Perhaps the gulf between cloud and traditional enterprise computing is not as unbridgeable as I have previously portrayed, at least when operating at a sufficiently large scale. Cloud application players amply demonstrate that once scale becomes large enough, there is much they can do to optimize under the covers of their own infrastructure. Maybe SAP should use OCP to help its HANA customers do likewise.

ここで説明した、すべての事柄が、きわめて興味深い思考の実験である。おそらく、クラウド·コンピューティングと、従来からのエンタープライズ·コンピューティングの間に、ブリッジが架けられないことはない。 それは、少なくとも、大規模スケールの到来と伴に実現されると、説明してきたことである。クラウド・アプリケーションのプレイヤーたちは、スケールが膨大になった後のことを、充分に例証している。つまり、独自のインフラでカバーされた深部で、必要とされる最適化が、充分に達成できるのである。おそらく、SAP は、HANA の顧客を支援するために、OCP を使用するはずだ。

Disclosure: SAP, Oracle and Salesforce.com are diginomica premium partners.

Image credit: Baking bread © Minerva Studio – Fotolia.com.

ーーーーー

TAG indexたまたま見つけた、diginomica というサイトで、Open Compute が取り上げられていました。 そして、とても興味深いことが書かれていたので、訳してみたのですが、とても難しい :) とは言え、専門的な知識を持っている方には、有効に利用してもらえる情報になるはずなので、それは、それで、良しとしましょう。 そして、思い出したのが、『 トップを快走する AWS と、それを追いかける 7人の チャレンジャー 』という 2012年3月の記事です。ここでも、もし Facebook がクラウド・プロバイダーになったら、という仮説が述べられているのですが、合わせて読んでみると、とても面白いですよ!image

ーーーーー

<関連>

Facebook の Dragonstone : これは memcached の SSD 実装なのだ!
Quanta と OCP : Server/Storage/Switch/Rack などがデビュー!
Linaro が OCP に参加 : それにより Linux on ARM in DC が加速していく!
Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
Facebook の DCIM : 独自のデータセンター管理システムを構築

 

%d bloggers like this: