Agile Cat — in the cloud

Storage の調査: Long-Term Low-Cost のコールド・ストレージは 5 PB へと向かうのか?

Posted in .Selected, Facebook, Open Compute, Research, Storage by Agile Cat on April 7, 2014

Storage: Long-Term Low-Cost COLD Storage Solutions
http://wp.me/pwo1E-7nI

By Dick Weisinger – April 4, 2014
http://formtek.com/blog/storage-long-term-low-cost-cold-storage-solutions/

_ formtek

Recently at the Open Compute Summit, Facebook VP of Engineering, Jay Parikh described how Facebook has rigged together a system based on 10,000 Blu-ray discs that fit into a single cabinet, capable of storing 1 petabyte of data.  Facebook plans to improve on this first attempt and be able to reach 5 petabytes per cabinet.  Compared to existing hard disk solutions, Parikh says that the Blu-ray solution will be 50 percent cheaper and use 80 percent less energy. It will also provide 50 years worth of durability for data stored on the discs.

先日の Open Compute Summit で Facebook VP of Engineering である Jay Parikh が説明したのは、1万枚の Blu-ray ディスクをベースにしたシステムを単一の筐体に収め、1 Peta Byte のデータをストアするという、Facebook で試している方式である。また、Facebook は、この試みを改善することで、キャビネットあたりに 5 Peta Byte をストアしようと計画している。Parikh が言うには、既存のハード·ディスク·ソリューションと比較して、この Blu-ray ソリューションでは、コストが 50% も低減され、また、電力消費量は 80% もカットされるようだ。そして、ディスクに保存されたデータに対しては、50年の耐久性という価値も提供される。

Sony, original creator of Blu-Ray technology, and Panasonic have also recently teamed up to address the need for finding a robust long-term low-cost solution for archiving content.  They’ve recently announced that they would jointly produce a 300 GB optical disc for long-term archival.  The product family is to be named “Archive Disc” and should become available in 2015.  The target is to create Blu-Ray optical discs with a 1 TB capacity and to then package them into a disc cartridge containing 12 discs.

Blu-Ray テクノロジー の発案者である Sony と、つい先日に Panasonic が提携したが、アーカイブ・コンテンツのたための、堅牢な Long-Term Low-Cost ソリューションが、そこでの取り組みとなる。 そして、Long-Term アーカイブのために、300 GB の光ディスクを、恊働で生産すると発表している。このプロダクト・ファミリーは、“Archive Disc” と命名され、2015年には利用が可能になるはずだ。そのターゲットは、1 TB の容量を持つ Blu-Ray ディスクを開発であり、また、ディスク・カートリッジ内に、12枚のディスクをパッケージ化することである。

Not everyone is buying into the Facebook strategy.  Mark Peters, a senior analyst at Enterprise Strategy Group, commented that “some of what Facebook was doing was laying out a challenge to storage vendors.  I think what they were really communicating was that there is a need for low cost reliable storage.”

誰もが、Facebook の戦略に与するわけではない。Enterprise Strategy Group のシニア・アナリストである Mark Peters は、「 たしかに、Facebook における幾つかの取り組みは、ストレージ・ベンダーへの挑戦を提起した。そして、実際に彼らが発信したことは、低コストで高信頼性のストレージに、大きなニーズがあるということだったと、私は理解している」と述べている。

Bruce Kornfeld, Interim CMO at Spectra Logic, questions the logic of using Blu-Ray for commercial purposes.  Kornfeld said that “over the last 20 years the commercial data storage industry has attempted to commercialize multiple consumer technologies including CD ROM, CD Writeable, DVD writeable, 4mm Digital Audio Tape, 8mm video tape, and VHS video tape – with mixed results.  Consumer technologies offer high-volume and typically low cost storage media. The ‘low cost’ strengths of these technologies have also led to their downfall as they lack the device robustness and data reliability required by commercial data storage applications. In addition, consumer grade drives and media just don’t last very long. Blu-ray disc drive load mechanisms are probably good to a few thousand load/unload cycles. This compares with an LTO tape drive that is rated to 250,000 load/unload cycles. As you can see – the difference in durability is substantial!”

Spectra Logic の Interim CMO である Bruce Kornfeld は、Blu-Ray の商用目的での利用に対して、論理的に無理があると、異を唱えている。 そして、「 これまでの20年間において商用データ・ストレージ業界は、複数のコンシューマ・テクノロジーを商用化しようと試みてきた。そこに含まれるのは、CD ROM/CD Writeable/DVD Writeable/4mm Digital Audio Tape/8mm Video Tape/VHS Video Tape であり、また、それらの組み合わせである。たしかに、コンシューマ・テクノロジーは、一般的にみて大容積で低コストな記憶媒体を提供する。 しかし、それらのテクノロジーにおける低コストの強みは、商用データ・ストレージ・アプリケーションで必要な、デバイスの堅牢性とデータの信頼性を欠いているため、意味を持つものになり得ない。また、コンシューマ向けのドライブやメディアは、きわめて寿命が短い。Blu-Ray ディスク・ドライブのロード・メカニズムは、おそらく数千回の Load/Unload サイクルをサポートするだけだ。250,000回の Load/Unload サイクルに対応する、LTO テープ・ドライブの仕様と比較して欲しい。 誰もが分かるように、 耐久性が段違いなのだ!」と述べている

ーーーーー

TAG indexこの コールド・ストレージについては、すでに「 Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは? 」という抄訳でお伝えしていますが、Sony と Panasonic が提携して、新たなソリューションを展開するというのは、とても嬉しい話ですね。 文中で、Mark Peter さんが述べているように、Open Compute の目的は、ユーザーが本当に欲しいものを、すぐれたベンダーに安価に提供してもらうことです。その意味で、Sony と Pnasonic の提携は、とても素晴しいことです。 なお、Bruce Kornfeld さんには、No Comment です :)  __AC Stamp 2

ーーーーー

<関連>

Cloud の調査:エンタープライズがクラウドを導入する5つの大きな理由
IoT の調査:テック・ベンダーたちは、一般顧客へのアプローチを模索する
Hybrid File の調査:エンタープライズに必須なのは、パブリックとオンプレミスのブレンドだ!
Web Programming の調査:Google の Dart は Javascript をリプレースできるのか?
Mobile Security の調査:エンタープライズ と Android と フリー・アプリ

Facebook は Open Compute のおかげで、この3年で 1200億円も節約できた!

Posted in .Selected, Data Center Trends, Facebook, Green IT, Open Compute by Agile Cat on March 12, 2014

Facebook: Open Compute Has Saved Us $1.2 Billion
http://wp.me/pwo1E-7j5

January 28th, 2014 – By: Rich Miller
http://www.datacenterknowledge.com/archives/2014/01/28/facebook-open-compute-saved-us-1-2-billion/

_ DC Knowledge

SAN JOSE, Calif. – Over the last three years, Facebook has saved more than $1.2 billion by using Open Compute designs to streamline its data centers and servers, the company said today. Those massive gains savings are the result of hundreds of small improvements in design, architecture and process, write large across hundreds of thousands of servers.

Facebook は直近の 3年間において、データセンターやサーバーを効率化する Open Compute のデザインを使用しすることで、$1.2 Billion 以上のコスト削減を達成したと述べている。この、膨大なコストの削減は、デザイン/アーキテクチャ/プロセスにおける小さな改善の集大成であり、それらは、無数のサーバー群をまたぐかたちで顕在化している。

Facebook CEO Mark Zuckerberg, at left, discusses the company’s infrastructure with Tim O’Reilly of O’Reilly Media yesterday at the Open Compute Summit in San Jose, Calif. (Photo: Colleen Miller)

The savings go beyond the cost of hardware and data centers, Facebook CEO Mark Zuckerberg told 3,300 attendees at the Open Compute Summit in San Jose. The innovations from Open Compute Project have saved Facebook enough energy to power 40,000 homes, and brought carbon savings equivalent to taking 50,000 cars off the road, Zuckerberg said.

ハードウェアやデータセンターにおける、こうしたコストの削減は、Facebook の収益性を超えたところでも意味を持つと、San Jose で開催された Open Compute Summmit で、CEO である Mark Zuckerberg は 3300人の参加者に語っている。Open Compute Project から始まったイノベーションは、Facebook が消費するエネルギーから、40,000 戸分の電力を削減している。それは、路上を走行する自動車で換算すると、5万台分の二酸化酸素を削減することになると、Zuckerberg は述べている。

The innovations created by Open Compute provide a major opportunity for other companies to achieve similar gains, he said “People are spending so much on infrastructure,” said Zuckerberg, who discussed Facebook’s initiatives with technology thought leader Tim O’Reilly of O’Reilly Media. “It creates a pretty broad incentive for people to participate.”

Open Compute がもたらすイノベーションにより、それぞれの企業が同様のメリットを得るという、チャンスが提供される。この Facebook の取り組みについて Zuckerberg は、「 人々はインフラストラクチャに、あまりにも多くの労力を費やしている。 そして、Open Compute は、そこに参加する人々に対して、きわめて広範囲におよぶインセンティブをもたらす」と、O’Reilly Media の思想的リーダーである Tim O’Reilly に説明していた。

An Open Legacy for Facebook

The focus on open hardware was a logical outgrowth of the way the company views the world, according to Zuckerberg. “Facebook has always been a systems company,” he said. “A lot of the early work we did was with open systems and open source.”

Zuckerberg によると、オープンなハードウェアにフォーカスすることは、世界を見据える Facebook にとって論理的な帰結となる。そして、彼は、「 Facebook は、常にシステムの企業であり続けてきた。そして、私たちが取り組んできた、その初期における成果の多くは、オープンなシステムとなり、オープンソースとなってきた」と続けている。

The $1.2 billion in savings serves as a validation of Facebook’s decision to customize its own data center infrastructure and build its own servers and storage. These refinements were first implemented in the company’s data center in Prineville, Oregon and have since been used in subsequent server farms Facebook has built in North Carolina, Sweden and Iowa.

$1.2 Billion というコスト削減は、データセンターのインフラを独自にカスタマイズし、また、独自のサーバーとストレージを構築していくという、Facebook の判断における妥当性を確認するものでもある。これらの洗練された発想は、最初に Prineville, Oregon のデータセンターに実装された後に、North Carolina および Sweden、Iowa の Facebook サーバファームに適用されてきた。

“As you make these marginal gains, they compound dramatically over time,” said Jay Parikh, Vice President of Infrastructure Engineering at Facebook.”We’re actually saving a ton of money.”

[ こうした、小さなメリットの積み上げを、長期間に渡って継続していくことで、劇的な融合が生じる。現実に、私たちは、膨大なコスト削減を達成した 」と、Facebook の Vice President of Infrastructure Engineering である Jay Parikh は述べている。

The designs for Facebook’s servers, storage units and data centers have since been contributed to the Open Compute Project, the non-profit community organization driving the open hardware movement.

Facebook の サーバとストレージのユニットおよび、データセンターのデザインは、オープンなハードウェアのムーブメントを促進する、非営利コミュニティである Open Compute Project に、ずっとコントリビュートされ続けてきた。

This happened, Parikh said, because Facebook was willing to set aside the conventional ways that servers and data centers were built, and try something new. The Open Compute Project can extend these savings to other companies, he said.

Facebook は、サーバーやデータセンターを構築する、従来からの方法と平行して、新しいことに挑戦したいと望んできたので、こうした変化が生じた、と Parikh は発言している。そして、Open Compute Project により、その他の企業でも、同じようなコストの削減が達成される。

“You really should be looking at OCP,” said Parikh. “You could be saving a lot of money.

「 ぜひ、OCP に注目してほしい。そうすれば、膨大なコストの削減が可能になる」と、Parikh は述べている。

RELATED POSTS:

Open Compute Summit, 2014
Open Compute Reports Progress on Open Network Switch
Facebook Adapts Open Compute for Colo Space
Facebook Brings Open Compute into its Colo Space
Closer Look: Facebook’s Open Compute Servers

ーーーーー

TAG indexそれにしても、$1.2 Billion というのは大きいですね。 100円で換算しても 1200億円ですから、メガ・データセンターの構築費に相当するくらいのコストが浮いたことになります。ちょうど 3年前に、Oregon のデータセンターがオープンしていますから、年間で 400億円くらいの計算になりますね。 そして、その後も Noth Carolina と、Sweden、Iowa が構築されているのですから、この数値は年々拡大していくことになります。自然環境へ影響を考えても、素晴らしいことです! 今月は、台北に OCP サーティフィケーション・センターがオープンしました。 アジアにも、このような事例がほしいですね。image

ーーーーー

<関連>

Facebook が選んだ CA の DCIM:どのように ハイパー・スケールを管理するのか?
Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?
Open Compute Project : ついに Microsoft も参加を表明した!
2013年 : Open Compute Project の マトメ
2013年 : 世界の データセンターの マトメ

Facebook が選んだ CA Technologies の DCIM:どのように ハイパー・スケールを管理するのか?

Posted in Data Center Trends, DCIM, Facebook, Open Compute by Agile Cat on February 7, 2014

Facebook Taps CA Technologies for Hyperscale DCIM
http://wp.me/pwo1E-7b7

January 29th, 2014 – By: Rich Miller
http://www.datacenterknowledge.com/archives/2014/01/29/facebook-taps-ca-technologies-hyperscale-dcim/

_ DC Knowledge

SAN JOSE, Calif. - Facebook once contemplated building its own software to manage its massive data center infrastructure. But after a lengthy review of its options, the company has opted to use software from CA Technologies to track and manage its data center capacity.

SAN JOSE, Calif. – かつて、Facebook は、自身の巨大データセンターにおけるインフラストラクチャを管理するために、独自のソフトウェアを構築するという意図を持っていた。しかし、その選択肢について延々とレビューした後に、データセンターのキャパシティに関する追跡/管理を実現するために、同社は CA Technologies のソフトウェアを使用するという道を選んだ。

Facebook data center executive Tom Furlong discusses the company’s DCIm software during a session Tuesday at the Open Compute Summit in San Jose. (Photo: Rich Miller)

The announcement is a significant win for CA, which beat out a dozen companies for the high-profile deal. Facebook will use CA Data Center Infrastructure Management (DCIM) software to bring together millions of energy-related data points from physical and IT resources in its global data centers to improve power efficiency.

この発表は、CA にとって大きな勝利であり、誰もが注目するビジネスにより、競合他社を打ち負かすものとなる。Facebook は、グローバルに展開される各データセンター内の物理層から得られる、電力消費と IT リソースに関する無数のデータ・ポイントを、この CA Data Center Infrastructure Management (DCIM) により取りまとめ、 その電力効率を向上させることになる。

DCIM software is seen as a key growth sector, as companies struggle to gain control over increasingly complex data center environments. But many end users have struggled to make sense of the DCIM landscape, which is crowded with more than 70 providers selling software to manage the various aspects of data center operations.

こも DCIM ソフトウェアは、ますます複雑化していくデータセンター環境の、コントロールに苦労している各企業にとって、成長を実現するための重要な分野だと見られている。しかし、大半のエンドユーザー企業から眺めてみると、多様なデータセンター運用を管理するための DCIM ソフトウェアが、70 社以上のプロバイダーから提供されており、それぞれの意味を理解するのに苦労してきたという状況がある。

One System to Rule Them All

The hope is to find “one system to rule them all,” according to Tom Furlong, VP, Infrastructure Data Centers at Facebook, who discussed the company’s DCIM selection process Tuesday at the Open Compute Summit. Furlong said

Facebook の VP, Infrastructure Data Centers である Tom Furlong が、火曜日の Open Compute Summit で説明したところによると、同社における DCIM の選択プロセスは、「 すべてを規定する1つのシステム」を探し出すことにあった。

“We are on a mission to help connect the world, and our IT infrastructure is core to our success,” said Furlong. “We are continually looking at ways to optimize our data centers and bringing all of our energy-related information together in one spot was a core requirement.”

「 私たちのミッションは、つながり合う世界の促進であり、また、私たちの IT インフラは、私たちがビジネスを成功させる上でのコアとなる。 これまでも、私たちはデータセンターを最適化する方式に注目しており、電力消費に関するすべての情報を、1ヵ所に集めることが、要件におけるコアを形成していた」と、Furlong は述べている。

CA Technologies is a long-time player in the data center software arena that has repositioned itself for cloud computing workloads through a series of acquisitions. CA DCIM provides a web-based centralized solution for monitoring power, cooling and environmentals across facilities and IT systems in the data center as well as managing the use of space and lifecycle of assets which make up the data center infrastructure.

CA Technologies は、データセンター・ソフトウェアの分野における長年のプレーヤーであるが、それは一連の企業買収を介して、クラウド·コンピューティングのワークロードに対して、自社のポジションを適合させてきた結果でもある。CA DCIM は、データセンター内のファシリティと IT システムを横断するかたちで、電力/冷却/環境をモニタリングするための、Web ベースのセンタライズされたソリューションを提供している。 また、それだけではなく、データセンター・インフラストラクチャを構成する、資産としてのスペースとライフサイクルの用法も管理する。

Intensive Vendor Reviews

Facebook conducted an intensive DCIM vendor review process. CA was one of a dozen considered and completed a proof-of-concept, followed by a more extensive pilot in a 100,000 square foot section of Facebook’s data center in Prineville, Oregon. data center. This type of field test is a critical step in evaluating a DCIM vendor solution, Furlong said. “You have to figure out a way to try it before you buy it,” he said. CA then worked with Facebook to create a custom solution.

Facebook は、DCIM ベンダーに対する、徹底したレビュー・プロセスを実施した。そして CA は、10数社の候補に入り、POC(proof-of-concept)を達成し、Prineville Oregon における Facebook データセンターの 10万平方フィートのセクションで、より広範囲におよぶ試験を完了した。この種のフィールド・テストは、DCIM ベンダーのソリューションを評価する上で、とても重要なステップであると、Furlong は語っている。 そして、彼は、「 誰もが、それを購入する前に、実施する方式を理解する必要がある」と続けている。 その後に、CA は Facebook と協調して、カスタムなソリューションを構築することになった。

“Facebook’s IT team can now bring this energy-related data into their broader DCIM system for an even more complete view of overall system status.  said Terrence Clark, senior vice president, Infrastructure Management, CA Technologies. “They can then analyze all of the data in aggregate to make decisions to improve efficiency and reduce costs, while delivering a seamless customer experience and creating new opportunities for innovation.”

「 現時点において、Facebook の  ITチームは、全体的なシステム・ステータスを、より完全なかたちで参照するために、広範囲をカバーする彼らの DCIM システム内に、電力に関連する全データを取り込むことができる。そして、彼らは、効率の改善と、コストの削減に関する意思決定を行うために、すべての集約されたデータを分析できる。その一方で、この方式により、シームレスなカスタマー・エクスペリエンスを提供し、新しいイノベーションの機会を創出できる」と、CA Technologies の Senior VP of  Infrastructure Management である Terrence Clark は語っている。

Data Quality Matters

Facebook’s overall data center management strategy integrates several in-house tools, including Cluster Planner (used in deploying entire clusters) and Power Path, which provides data on electric consumption at many points within the data center.

Facebook における全体的なデータセンター・マネージメントの戦略は、データセンター内の多様な測定ポイントから、電気の消費量に関するデータを取り出す、Cluster Planner (全体的なクラスタをディプロイする際に使用) と Power Path を含む、いくつかの内製ツールを統合するところにある。

Despite its intense focus on data collection and management, the DCIM review process presented challenges and learning experiences, Furlong said.

そのフォーカスが、データの収集と管理に集約されているにもかかわらず、この DCIM のレビュー・プロセスが、課題と学習に関するエクスペリエンスを明らかにしてくれる、と Furlong は語っている。

“We learned how important data quality can be,” said Furlong. “You need to look at every single facility in nauseating detail. At the scale we’re at, you can miss stuff.”

「 私たちは、重要なデータの質を高める方式を学習した。 すべてのファシリティにおいて、気の遠くなるような詳細情報を調べる必要がある。 私たちが取り組んでいるスケールでは、その実態を取りこぼしがちになる」と、Furlong は述べている。

RELATED POSTS:

DCIM News: Nlyte Releases SaaS Version of DCIM Platform
RagingWire Boosts DCIM Offering With CA Technologies
A Storm of Servers: How the Leap Second Led Facebook to Build DCIM Tools
Schneider Electric Buys Viridity’s DCIM Software
DCIM: Creating a Holistic and Efficient Data Centre

ーーーーー

TAG index文中にもあるように、DCIM ソフトウェアは超乱立という状況であり、Agile_Cat としても、どのように調べれば良いのかが分からず、途方にくれていたところです。 それにしても、70 社以上ものプロバイダーがいることには、ちょっと驚いています。OCPJ からは HARDWARE MANAGEMENT(対訳付き)というドキュメントが提供されていますが、この Facebook の選択と、OCP で進めている体系化が、どのように関連して、また、どのように差別化されるのか、そのあたりが、とても興味深いですね。image

ーーーーー

<関連>

Facebook と DCIM : オープンな議論を期待できるのか?
Facebook の DCIM : 独自のデータセンター管理システムを構築
Facebook の 超絶 Web パフォーマンス : その秘密を解析する
SDN はテクノロジーではない : ユースケースとして捉えるべきだ
インターネットの世界を、海底ケーブル・マップから眺めてみる

Blu-ray ディスクを 10000枚:Facebook が考えるペタ/エクサ時代のコールド・ストレージとは?

Posted in Data Center Trends, Open Compute, Storage by Agile Cat on January 29, 2014

Facebook has built a prototype system for storing petabytes on Blu-ray
http://wp.me/pwo1E-79F

By Derrick Harris – Jan 28, 2014
http://gigaom.com/2014/01/28/facebook-has-built-a-prototype-system-for-storing-petabytes-on-blu-ray/

_ Giga Om

Summary: During the Open Compute Summit in San Jose, Facebook VP of Engineering Jay Parikh shared some big statistics for the company’s cold storage efforts, including those for a protoytpe Blu-ray system capable of storing a petabyte of data today.

Summary: San Jose で開催中の Open Compute Summit において、Facebook VP of Engineering である Jay Parikh は、同社におけるコールド・ストレージに関する、いくつかの情報を共有したが、そこには、すでにペタバイト・データをストアできる、Blu-ray システムを用いるものが含まれていた。

ーーーーー

At last year’s Open Compute Summit, Facebook VP of Engineering Jay Parikh suggested the company might consider Blu-ray discs as a medium for improving durability and cutting costs for its long-term cold storage efforts. Now, Parikh said Tuesday during a keynote at this year’s event, the company is actually doing it.

昨年の Open Compute Summit でも、Facebook VP of Engineering である Jay Parikh は、Blu-ray ディスクが活用されるかもしれないと発言していたが、このメディアを用いることで、これまでの長期間において取り組んできた、コールド・ストレージの耐久性が向上し、また、コストが低減されることを示唆する内容であった。そして、今年のイベントのキーノートでは、同社が実際に、それを推進していることを発表した。

Facebook has built a prototype Blu-ray system capable of storing 10,000 discs and 1 petabyte of data in a single cabinet, with plans to scale it to 5 petabytes per cabinet. Blu-ray storage would save the company 50 percent in costs and 80 percent in energy usage over its existing hard-disk-based cold storage methods, Parikh said, and will provide 50 years worth of durability for data stored on the discs.

Facebook が開発しているプロトタイプは、10000 枚のディスクをシングル・キャビネットに格納し、1 Peta Byte ストレージを構築する Blu-ray システムのことであり、キャビネットごとの容量を 5 Peta Byte にスケールする計画も進んでいるという。そして、この Blu-ray ストレージは、同社における既存の HDD ベースのコールド・ストレージと比べて、50% のコストを低減し、80% の電力を削減し、また、ディスクに保存されたデータに対して 50年の耐久性を提供するものになると、Parikh は発言している。

That’s not the only tidbits Parikh shared about the company’s cold storage efforts, though. He said that the first site is now in production and storing 30 petabytes of data, but a second will be coming online soon. Within a couple months, Facebook expects to have 150 petabytes of data in cold storage, which is just a fraction of the 3 exabytes each facility is designed to house.

しかし、Parikh が共有したものは、同社のコールド・ストレージに関する、ちょっとしたトピックというものではない。彼が言うには、30 Peta Byte のデータをストアする最初のサイトが、すでにプロダクション・システムとして運用されており、2番目のサイトも近々に運用に入るらしい。そして Facebook は、数ヶ月以内に 150 Peta Byte のデータをコールド・ストレージに取り込む予定だが、その容量については、それぞれのファシリティで設定している、3 Exa Byte の一部に過ぎないとしている。

One other nugget worth noting from the morning as it relates to Facebook’s innovation on the storage front: In order to save money over data center-grade SSDs but still speed up the process, Facebook is now booting web servers using netbook-grade SSDs, hardware executive Matt Corddry said.

また、今日の午前中に Facebook が明らかにした、ストレージのイノベーションに関連する、もう1つの貴重な情報は、データセンター・グレードの SSD に対するコストを削減しても、プロセスの処理速度をスピード・アップできるというものだ。具体的には、ネットブック・グレードの SSD の活用であり、Facebook では、それを用いて Web サーバーをブートしていると、Hardware Executive である Matt Corddry が発言している。

Related research

The fourth quarter of 2012 in cloud January 2013
How direct-access solutions can speed up cloud adoption December 2012
The role of converged infrastructure in the data center December 2012

ーーーーー

TAG indexこういう発想は、プロダクトを売る側では、絶対に生まれてこないものなのでしょうね。文中にもあるように、これまで通りに、HDD をコールド・ストレージに使ってもらえるなら、単純に考えて、売上が2倍になるのですから。。。 しかし、ペタやエクサのレベルで、大量のデータをストアしなければならない、ユーザーのニーズを考えれば、このような方式が優れていることが一目で分かります。そして、さらに素晴らしいのが、電力コストを 80% も削減できるという点です。イイですね! これ! image

ーーーーー

<関連>

Open Compute Project : ついに Microsoft も参加を表明した!
SAP と HANA が、Open Compute に恋する理由
Linaro が OCP に参加 : Linux on ARM in DC が加速していく!
OCP オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出
2013年 : Open Compute Project の マトメ
2013年 : 世界の データセンターの マトメ

Open Compute Project : ついに Microsoft も参加を表明した!

Posted in .Selected, Facebook, Microsoft, Open Compute by Agile Cat on January 28, 2014

Microsoft joins Facebook-founded Open Compute Project, touts its ‘unprecedented’ contributions
http://wp.me/pwo1E-79A

By Kaylene Hong, jan 28, 2014
http://thenextweb.com/microsoft/2014/01/28/microsoft-joins-facebook-founded-open-compute-project-touts-its-unprecedented-contributions/

_TNW

The fifth summit of the Open Compute Project is happening on Tuesday, and Microsoft has revealed that it is the latest member to join the group, a Facebook-founded initiative that sees the company and its partners commit to developing and sharing designs for data center infrastructure.

Open Compute Project5回目のサミットが、この火曜日(1/28)に開催されるが、このグループに参加する、最も新しいメンバーの中に、Microsoft がいることが明らかになってきた。つまり、同社とパートナーたちが、データセンター・インフラストラクチャに関する成果やデザインを、この Facebook が設立/主導するイニシアチブと、共有していくことをコミットするわけだ。

Bill Laing, Microsoft’s corporate vice president for cloud and enterprise, says in a blog post that Microsoft will contribute what it calls its “cloud server specification” to OCP — referring to the designs for server hardware in Microsoft data centers that are being deployed for its largest global cloud services including Windows Azure, Bing, and Office 365.

Microsoft の Corporate VP for Cloud and Enterprise である Bill Laing は、「 Microsoft は、同社における Cloud Server Specification と呼ばれるものを、OCP にコントリビュートする」と、自身のブログ・ポストで述べている。 つまり、それは、Miicrosoft のデータセンターにおける、サーバー・ハードウェアのデザインを指し示すものであり、Windows Azure および、Bing、Office 365 などの、世界でも最大級のクラウド·サービスをディプロイするためのハードウェアが含まれる。

Microsoft says these servers are built to deal with the “enormous availability, scalability and efficiency requirements” of Windows Azure, its cloud platform. It says that compared to traditional enterprise server designs, the data center servers it has built to deliver its cloud services bring “up to 40 percent server cost savings, 15 percent power efficiency gains and 50 percent reduction in deployment and service times.”

Microsoft の発言によると、それらのサーバーは、同社のクラウド·プラットフォームである Windows Azure の、 「 きわめて大規模な環境における可用性/拡張性/効率性の要件」に対応するために構築されたものとなる。そして、従来からのエンタープライズ・サーバーのデザインと比較して、クラウド・サービスのために構築されたデータセンター・サーバー」は、最大で 40% のサーバー・コストの削減をもたらし、15% の電力効率の向上を達成し、さらには、デプロイメントとサービスに費やされる時間を 50% も削減するという。

Laing notes that Microsoft is the only other cloud service provider, other than Facebook, to publicly release its server specifications, and says the depth of information it is sharing with OCP is “unprecedented.”

Laing は Microsoft の取り組みについて、Facebook 以外のクラウド·サービス·プロバイダーとして、サーバーの仕様を公開していく唯一の存在であり、OCP と共有される情報は、「これまでにない、奥行き持つものになる」と指定している。

To show its commitment, Microsoft Open Technologies is also open sourcing the software code it created for the management of hardware operations including server diagnostics, power supply and fan control. The code is available on GitHub from today onwards.

このコミットメントを示すために、Microsoft Open Technologies も、ハードウェア運用におけるマネージメントのために作成された、ソフトウェア·コードをオープン・ソースにしている。それらは、サーバーの診断や、パワー・サプライ、ファン・コントロールを含むものである、今日から GitHub で提供されている。

“The Microsoft cloud server specification for OCP will help drive hardware innovation for cloud computing, which strengthens the Cloud OS vision to give customers a consistent platform for better IT efficiency and economics,” Laing says.

そして Laing は、「 OCP にコントリビュートされる Microsoft のクラウド・サーバー仕様は、クラウド・コンピューティングのためのハードウェア・イノベーションを促進するものになる。それは、顧客に提供される、Cloud OS のビジョンを強化するものとなり、より優れた IT のために、効率性と経済性を考慮した、一貫性のあるプラットフォームを実現していく」と述べている。

Headline image via Eric Piermont/AFP/Getty Images

ーーーーー

TAG indexアメリカ時間の 1月28日に開催される、OCP Summit に参加するため、San Jose に来ています。いまは、夜中の3時ですが、時差で眠れないので、OCP 関連の情報を探していたら、こんなニュースが提供されていました。 昨日には、登録を済ませてきたので、イベントのスケジュールも受け取って入るのですが(クリックで拡大)、詳細は明日にならないと分からないそうです。それにしても、Microsoft も OCP に参加するというのは、とても良いニュースですね。おそらく、9時から始まるキーノートで紹介されるのだと予測していますが、どんな話が出てくるのか、それが楽しみで、ワクワクしています。image

ーーーーー

<関連>

SAP と HANA が、Open Compute に恋する理由
Linaro が OCP に参加 : Linux on ARM in DC が加速していく!
OCP オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出
2013年 : Open Compute Project の マトメ
2013年 : 世界の データセンターの マトメ

2013年 : Open Compute Project の マトメ

Posted in .Chronicle, Data Center Trends, Open Compute by Agile Cat on December 28, 2013

アジアが重視される OCP コミュニティなのです ・・・
http://wp.me/pwo1E-73N

Agile_Cat_Loupe

_  space

早いもので、Open Compute Project(OCP)が立ち上がってから、この春で 2年が経ちます。正直なところ、2011年の時点で、このハードウェアに関するオープンソース・プロジェクトが、ここまでのパワーを持つとは思いもしませんでした。 OCP のチェアマンである Frank Frankovsky さんは、折に触れ、とても骨太な考え方をシンプルに語ってくれるのですが、 その中でも耳に残っているのは、以下の2つです。

・ ソフトウェアにおける OSS のメリットを、ハードウェアでも享受できるはずだ。

・ サーバーもデータセンターも、ユーザーがデザインすべきものである。

前者に関しては、GNU や Linux といった成功体験に基づいたものであり、それをソフトウェアに限定せずに、もっと柔軟に考えようという話です。 後者に関しては、クラウド・プロバイダーやデータセンター事業者といった、実際の運用を知っている者でなければ、そこでのニーズを形にできないという話です。 そして、何が OCP なのかと言えば、この 2つが OCP なのだというのが、いまの Agile_Cat の理解です。今年の OCP には、もっとたくさんのトピックがあり、その一部となってしまいますが、以下のリストを ご参照ください。

_  space

1/18: Open Compute Summit 2013 : エコロジーと Asia Pacific
1/18: Agile_Cat 空撮隊 – Facebook Prineville データセンターを捕捉せり
1/21:
Open Compute Summit 2013 – Directory
2/05:
Facebook と Open Compute は、$55B のサーバー市場を解体/再生する
2/09:
Open Compute Japan の FB ページが始まりました!
2/14:
OCP Summit 2013 キーノート : モノリスを破壊する!
3/04:
無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner
3/05:
Intel と Facebook が実現する、100 Gbps でラックを貫く光学素材とは?
3/14:
OCP データセンターと、高温多湿気候との関係について
8/03:
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻
4/24:
Facebook が Iowa にもデータセンターを作る? これも デカイ!
4/25:
Facebook の空母のようなデータセンターを Web モニタリング!
5/14:
Facebook の Open Compute Project がオープン・スイッチに挑戦だ!
5/21:
Open Compute について、知っておくべき 10 の事柄
5/23:
Intel の Open Compute にかける意気込みがスゴイ : 100G Photonics
7/18:
Open Compute 台湾 が 立ち上がった!
8/27:
Intel の 1.6 TB/秒 転送 : その秘密を解く
8/28:
Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう
9/19:
Facebook の DCIM : 独自のデータセンター管理システムを構築
9/20:
OCP の Rack Solution : Quanta QCT が Intel Dev Forum で発表!
10/01:
Intel が OpenStack を絶賛 : イノベーションに OSS は欠かせない
10/11:
Facebook Hardware Labs は、エンジニアにとって夢のような空間だ
11/12:
Quanta と OCP : Server/Storage/Switch/Rack などがデビュー!
11/13:
Facebook の Dragonstone : これは memcached の SSD 実装なのだ!
11/14:
Linaro が OCP に参加 : Linux on ARM in DC が加速していく!
11/26:
SAP と HANA が、Open Compute に恋する理由
11/27:
OCP:オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出

_  space

TAG indexシンプルであるが故に、OCP は人々の心をつかみ、その求心力を高め続けています。今年の 3月に Gartner が発表したレポートによると、2012年 Q4 における無印サーバーのシェアは 18% に至ったそうです。 もちろん、そこには Google や Amazon がデザインしたサーバーも含まれるため、すべてが OCP というわけではありません。 しかし、ソフトウェアと同様に、イニシアティブがベンダーからユーザーへと、徐々に移行している様子が見えてきます。

そして、Asia Pacific の OCP ですが、今年の 1月に Japan が立ち上がり、5月には Taiwan が立ち上がりました。 また、3月には Hong Kong で、11月には Korea で、ワークショップが開催されています。 OCP Japan の山口事務局長からのメールによると、現時点の会員数は 100に達しているそうです(法人+個人)。 よろしければ、以下の関連サイトも、ぜひ ご覧くださ~い!image

<関連>

Open Compute Japan Org
OCP Japan の Facebook ページ

2013年 : 世界の データセンターの マトメ

Posted in .Chronicle, Data Center Trends, Open Compute by Agile Cat on December 21, 2013

大きく躍進した、今年のインターネット・インフラたち・・・
http://wp.me/pwo1E-72y

Agile_Cat_Loupe

_  space

モバイルからインフラまでをカバーしたいと、常々 考えている Agile_Cat ですから、今年もデータセンター関連情報には力を入れてきました。 そして、この数年を振り返ってみると、データセンターへの関心が、年を追うごとに高まっているようです。 その背景には、これまでは秘密にすべきとされてきた、データセンターに関する情報が、クラウドが躍進するにつれてオープンにされていくという、状況の変化があるのだと思えます。 もちろん、金融や証券といった市場のためのデータセンターは、これからも秘密裏に運用されていくでしょう。 しかし、クラウド・プロバイダーたちはインフラを開示することで、その顧客たちに信頼性をアピールしたいと考え、また、環境への配慮なども理解して欲しいと願っているはずです。つまり、それぞれの企業における理念が、そのインフラを見ることで明らかになってくるのです。 なお、Open Compute Project(Facebook も含む)に関しては、来週にマトメをポストします!

_  space

1/09: コ・ロケーションのための、データセンター Hotsopt を探せ!
1/18: Open Compute Summit 2013 : エコロジーと Asia Pacific
3/01: Cisco が占有する スイッチ と ルーターの世界
3/04: 無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner
5/02: Facebook はプライバシーのために、10% のリソースを割り当てる
5/08: Google Glass : 新たな要求をクラウドに突き付けるのか?
5/24: シンガポール は データセンター 天国 : Equinix は語る
6/06: 空芯型ファイバーにより、光速の 99、7% に到達するテクノロジーとは?
6/22: IBM の DC 温度/湿度センサー・ロボットが凄い! まるで ルンバだ!
7/02: IBM の Flash Memory アプライアンスは、12T Bytes で 3000万円だ!
7/02: 400 Gbps の転送速度を可能にする、ノイズ・キャンセリングの理論とは?
7/02: 世界中の DownTime をライブで表示:Pingdom の素敵なマップ
7/19: SoftBank と Bloom Energy が提携:最新の燃料電池が日本にやってくる!
8/18: Google が 5分ほど落ちた : そしたら 5千万円ほど 吹っ飛んだらしい
8/19: Google のダウンは数分で収まったが、Microsoft は数日を要してしまった
8/20: 今度は Amazon.com がダウン : US リージョンで 約 45分間
8/28: Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう
9/18: Equinix の Cross-Connects が、110,000 接続に達したらしい
9/25: Google のインフラ投資額 : これまでに $21B をデータセンターに!
10/02: クラウドから特許を追放するって、ステキ すぎます Google 先生
10/08: インターネットの世界を、海底ケーブル・マップから眺めてみる
10/10: SDN はテクノロジーではない : ユースケースとして捉えるべきだ
10/22: Alcatel-Lucent の海底ケーブルが、31Tbps の記録を達成!
10/29: Google の洋上データセンター : SF に続いて 東海岸にも出現!
10/31: NTT は DC 事業者 RagingWire を買収し、国際戦略の要とするのか?
11/18: Data Center の調査 : DC 内 IP トラフィックが 2017年には 3倍に増大
11/28: Cisco の悩み : 楽観できない見通しと、低迷する株価
12/02: Data Centers の調査 : データセンターの効率を多角的に考える
12/10: Google Load Balancing : 100万リクエスト/秒を達成!
12/12: 世界のデータセンター・スペース : 余っているのか? 不足しているのか?

_  space

datacenter_55こうして、この 1年の動きを眺めてみると、計算能力の上昇とメモリの低価格化により、コンピューティング密度が一挙に高まってきたと感じられます。 そこに、光の活用が加わり、キャパシティとスピードを売りにしたデータセンターが、経済性を確保した上で、インターネット・インフラを新たな次元へと、引っ張りあげているような感じです。 おそらく、来年は、データセンター運用における効率化が、大きなテーマとなっていくはずです。 それを実現するためには、SDN や DCIM などの洗練が、欠かせない要因となるでしょう。 また、これだけインフラが整備されてきたのであれば、インターネット接続の在り方も再考すべきという、議論も熱を帯びてくるでしょう。 年明け早々の、1月の Agile_Cat は、Open IX にフォーカスしていきますので、どうぞ、お楽しみに!image

Facebook と OCP : オープン・スイッチ仕様を Broadcom と Intel と Mellanox が提出

Posted in .Selected, Data Center Trends, Facebook, Network, Open Compute by Agile Cat on November 27, 2013

Facebook Likes Broadcom, Intel, Mellanox Switches
http://wp.me/pwo1E-6WG

Rick Merritt – 11/11/2013
http://www.eetimes.com/document.asp?doc_id=1320052

_ ee times

SAN JOSE, Calif. — Broadcom, Intel, and Mellanox have developed competing specifications for datacenter switches, responding to a call from the Facebook-led Open Compute Project.

SAN JOSE, Calif. — Broadcom および、Intel、Mellanox の各社は、Facebook が主導する Open Compute Project からの要請に応えるかたちで、データセンター・スイッチの仕様コンペに取り組んでいる。

OCP called earlier this year for open specs for software-agnostic leaf and spine switches to complement its existing specs for streamlined servers. The specs aim to speed innovation in networking hardware, "help software-defined networking continue to evolve and flourish," and give big datacenter operators more flexibility in how they create cloud computing systems, said Frank Frankovsky, a Facebook datacenter executive and chair of the OCP Foundation in a blog posted Monday.

今年の初めOCP は、既存のスイッチ・プロダクツを補完し、その合理化されたサーバーに順応させる、ソフトウェアを選ばない Leaf and Spine スイッチの、オープン仕様について呼びかけを行った。その仕様とは、ネットワーク・ハードウェアにおけるイノベーションのスピードを高め、また、「SDN の進化と普及を促進」し、さらには、大規模データセンター事業者によるクラウド·コンピューティング·システム開発に柔軟性を提供するものであると、Facebook データセンター部門のトップと、OCP Foundation 議長を兼任する Frank Frankovsky が、自身のブログ・ポストで発言している。

The project’s goal is to deliver a switch that can be rebooted to handle different jobs as needed. So far the OCP group received more than 30 proposals for systems or components.

このプロジェクトの目標は、異なるジョブを必要に応じて処理するための、リブートが可能なスイッチを提供することである。そして、これまでに、30種類を超えるシステムやコンポーネントの提案を、OCP グループは受け付けている。

Intel posted online a full reference design for its proposal for a 48×4 10/40G switch (below). The design uses Intel’s FM6764 switch acquired with Fulcrum Microsystems and two of Intel’s own SoCs — the Crystal Forest control plane processor and the Cave Creek chipset for daughter cards. Quanta and one other OEM built systems based on the design.

Intel からは、48×4 10/40G Seitch(以下)に関する提案のフル・リファレンス·デザインが、オンラインでポストされている。このデザインで用いられる Intel の FM6764 Switch は、Fulcrum Microsystems と Intel 自身の 2つの SoC と連携するが、後者に関しては、ドータ·カード用の Crystal Forest プロセッサと、 Cave Creek チップセットとなる。Quanta と、別の OEM によるシステムは、このデザインをベースに構築されている。

クリックで拡大 ⇒
Intel’s switch proposal uses three types of its chips.

Broadcom said it has delivered a spec and a working system based on its Trident II switching chip that meets OCP needs. However the company declined to release further details.

また、Broadcom からは、その Trident II Switch をベースにして、OCP のニーズを充たす仕様と稼働システムが提供されるようだ。ただし、同社は、その詳細についてリリースを行っていない。

Mellanox proposed a switch based on its SwitchX-2 switch and an x86 processor running the Open Network Install Environment (ONIE) software from Cumulus Networks. The switch supports either 48 SFP+ ports and 12 QSFP ports or 60 10GbE server ports when using QSFP+ to SFP+ breakout cables.

Mellanox からの提案は、その SwitchX-2 Switch と x86 プロセッサにより、Cumulus Networks から提供される Open Network Install Environment (ONIE) ソフトウェアを走らせるというものである。このスイッチは、48 SFP+ ポートと 12 QSFP ポートをサポートするが、SFP+ Breakout Cable を用いる際には、60 10GbE サーバー・ポートがサポートされる。

Separately, Cumulus submitted to OCP its ONIE software, a boot loader for installing software on network switches. It enables a generic switch to run a variety of networking software environments.

それとは別に Cumulus は、各種のネットワーク・スイッチ上にソフトウェアをインストールするための、ブート・ローダーとしてソフトウェアを OCP にサブミットしている。それにより、各種のソフトウェア・ネットワーク環境を実行するための、汎用的なスイッチが実現されるという。

Further work on networking specs and proposals continues at an OCP event this week in San Antonio.

今週に San Antonio で開催される OCP イベントにおいて、このネットワークに関する、さらなる仕様と提案が、明らかになるだろう。

— Rick Merritt, Silicon Valley Bureau Chief, EE Times

Related posts:

ーーーーー

open-computeOCP の Open Switch について詳しく説明しているのは、Facebook Tech Director Reveals Open Networking Plan というドキュメントだと思います。 その中で、Facebook の Najam Ahmad は、「私たちが取り組んでいる仕様は、本質的にコンピューティングのように振る舞うスイッチとなる。診断と試験のための BIOS 環境が起動した後に、実行可能なものが検索され、オペレーティング・システムが見つけ出される。つまり、一般的なオペレーティング・システムのように、どのように振舞い、なにを実行するのかを、それに伝えることができる」と説明しています。一言でいって、脱アプライアンスとなるわけですが、サーバーと同様に、無印スイッチが活躍できるのかどうか、とても興味深いテーマだと思います。image

ーーーーー

<関連>

やったぜ! Facebook の Open Compute Project がオープン・スイッチに挑戦だ!
Quanta と OCP : Server/Storage/Switch/Rack などがデビュー!
Cisco が占有する スイッチ と ルーターの世界 : それを示す1枚のチャート
Facebook の Dragonstone : これは memcached の SSD 実装なのだ!
SDN はテクノロジーではない : ユースケースとして捉えるべきだ
Intel の 1.6 TB/秒 転送 : その秘密を解く

 

%d bloggers like this: