Agile Cat — in the cloud

IBM が開発した、自走式 DC 温度/湿度センサー・ロボットが凄い! まるで ルンバだ!

Posted in Data Center on Youtube, Data Center Trends, Weekend by Agile Cat on June 22, 2013

IBM Robot Maps Data Center Temperature and Humidity
http://wp.me/pwo1E-6gS
By: Colleen Miller – May 30th, 2013
http://www.datacenterknowledge.com/archives/2013/05/30/ibm-robot-maps-temperature-and-humidity-in-the-data-center/

_ DC Knowledge

Data center managers need to measure temperature and humidity in a data center, and now they can use small robot by IBM to perform that function. This 1:38 minute video shows the IBM robot and what it can do the data center. The data from the robot is used to develop an efficiency map, which shows temperature differences in the data center and can guide you in making your data center airflow more efficient.

データセンター管理者は、そのサーバー・ルームにおける温度と湿度を測定する必要があるが、これからは、その機能を提供する IBM の小さなロボットを、利用できるようになるだろう。この、1分38秒のビデオは、前述の IBM ロボットと、それによりデータセンターにもたらされるものを示している。ロボットから発信されるデータは、データセンター内の温度差を示す、効率化のためのマップを作成する。したがって、それを用いることで、データセンターにおけるエアフローの効率化を容易に達成できるようになる。

___space

___space

ーーーーー

imageすばらしい発想ですね! でも、ルンバのパクリのようにも思えてしまいます :)  そして、どのくらいプログラマブルなのか、そのあたりも気になります。 たとえば、熱溜まりの疑いのあるような場所を、ことさら入念に調べあげて、そのデータをリアルタイムに取得してくれるなら、エアーフロー・シミュレーションのコストを大幅に引き下げることが、可能になるかもしれません。 それにしても、面白いですね! image

ーーーーー

<関連>

OCP データセンターと、高温多湿気候との関係について
Facebook の空母のようなデータセンター: 効率/温度/湿度 を Web モニタリング!
コ・ロケーションのための、データセンター Hotsopt を探せ!
空芯型ファイバーにより、光速の 99、7% に到達するテクノロジーとは?
クラウドにより、どこまで データセンターの効率は高まるのか?

 

脅威の LEGO Data Center を Youtube で!

Posted in Data Center on Youtube by Agile Cat on July 1, 2012

Video: Amazing LEGO Data Center
http://wp.me/pwo1E-4na

By: Colleen Miller – June 19th, 2012
http://www.datacenterknowledge.com/archives/2012/06/19/video-lego-data-center/

_ DC Knowledge

This video of a LEGO Data Center is clearly a detailed homage to a real data center, built and filmed by YouTube user “eduardotanaka.” He used 5,772 pieces, 28 Minifigures, 1 Light Brick, 1 meter of fiber optic strand and spent 8 hours building this unique creation. You can build your own too, using his model and instructions that were uploaded to the Lego LDD gallery at the LEGO web site (search for data center).

この LEGO Data Center ビデオは、YouTube ユーザー である Eduardo Tanaka により構築/撮影され、また、リアルなデータセンターを詳細まで表現する傑作である。 彼は、5,772 Pieces/28 Minifigures/1 Light Brick/1 Mrter Optic を用い、8時間の作業により、このユニークな作品を構築した。彼が、LEGO Web サイトの Lego LDD ギャラリーにアップロードした、モデルとインストラクションを用いることで、あなたも同じものを構築できる( data center で検索)。

___space

___space

He notes that he has plans for future expansion: Facilities and security management with temperature, sound, IR and door sensors as well as automatic locks powered by LEGO NXT are on the drawing board. We think he’s probably going to install real, yet tiny, working IT equipment in the future! This video runs 4 minutes.

彼は、将来の拡張計画も持っている。 そこでは、気温と、音、IR、ドア・センサーによるセキュリティ管理だけではなく、Drawing Board 上の LEGO NXT が駆動する、自動ロックなどの機能が実現される。彼は、おそらく、きわめて小さな、本物の IT を取り付けようとしていると、私たちは想像している! なお、このビデオは、4 分間の映像を収めている。

For a similar project from a corporate provider, see Digital Realty’s Data Center Construction Kit video from 2009. For additional video, check out our DCK video archive and the Data Center Videos channel on YouTube.

類似のプロジェクトが、いくつかの企業からも提供されている。2009年の、Digital Realty Data Center Construction Kit も参照して欲しい。 その他のものとしては、私たちの DCK ビデオ・アーカイブおよび、Data Center Videos on YouTube も参照して欲しい。

ーーーーー

TAG index本当に、スバラシイ出来栄えの LEGO Data Center ですね。 Eduardo Tanaka さんの次作にも、期待したいです。 一時は 大流行だったデータセンターのビデオですが、このところ、ちょっと下火になっている感じがします。 ここまで見せるか Facebook という感じの、Facebook Prineville Data Center Energy Efficiency Tour 以来、次がやり難くなっていのかも知れませんね :) ーーー __AC Stamp 2

ーーーーー

<関連>

Google コンテナ・データセンターを Youtube で!
Microsoft Data Center イメージ・ビデオ
Google データセンターの水冷設備
i/o ANYWHERE のコンテナ DC 紹介 – Youtube がカッコイイ
AST の Free Cooling コンテナ DC を Youtube で!
最新データセンターの起工から完成までを、3分間の Youtube で

 

最新データセンターの起工から完成までを、3分間の Youtube で

Posted in Data Center on Youtube by Agile Cat on January 9, 2012

Building CoreSite’s New Silicon Valley Data Center
http://wp.me/pwo1E-3Nj
By: Rich Miller
November 28th, 2011
http://www.datacenterknowledge.com/archives/2011/11/28/building-coresites-new-silicon-valley-data-center/

_ DC Knowledge

CoreSite Realty recently brought new data center space online in Santa Clara, Calif. The company has leased the first completed pod of 18,000 square feet of space at 2972 Stender, the second building in its Santa Clara campus, and plans to bring an additional 33,000 square feet online by the first quarter of 2012. The cooling system used by CoreSite leverages a built-in swamp cooler or Munter unit with air-side economization to extend “free cooling” using outside air. This three-minute video provides a time-lase view of the construction of 2972 Stender, starting with empty land and ending with the completed data center building.

最近のことだが、CoreSite Realty が新規のデータセンタース・ペースを、Santa Clara, Calif に開設した。 同社は、この 2972 Stender に、Santa Clara キャンパス 2番目の施設として、18,000平方フィートの広さを持つ建屋を完成させ、さらに 33,000平方フィートの施設を、2012年の Q1 までに開設しようと計画している。 CoreSite が用いる冷却システムは、Free Cooling 方式を Air-Side Economization により拡張する、ビルトインの Swamp Cooler もしくは  Munter Unit を、活用するものとなる。 この、3分間のビデオは、2972 Stender における建設風景を、コマ落としで提供し、サラ地の状態から、データセンター建屋の完成までを、紹介するものとなっている。

Contractors for 2972 Stender included Critical Solutions Group, MATT Construction and Mitsubishi Electric. For more on CoreSite’s data center operations, see our CoreSite Channel. For additional video, check out our DCK video archive and the Data Center Videos channel on YouTube.

2972 Stender におけるコンストラクターには、Critical Solutions Group および、MATT Construction、Mitsubishi Electric が含まれている。 CoreSite データセンター運用に関する詳細については、CoreSite Channelを参照して欲しい。その他のビデオについては、YouTube の DCK Video Archive および Data Center Videos Channel をチェックして欲しい。

ーーーーー

TAG indexさきほど数えてみたら、Data Center on Youtube も、これで 20本目となります。 ただし、この手のものは初めてであり、とても面白く見させてもらいました。 きっと、建設に携わったコンストラクターが撮影したのでしょうが、これがキッカケとなり、流行しないかなぁと期待してしまいます。  以下の <関連>も、All Youtube ですよ :) ーーー __AC Stamp 2

ーーーーー

<関連>

Apple の巨大データセンター on Youtube
Google データセンターの水冷設備
HP のコンテナ・データセンター
Google コンテナ・データセンターを Youtube で!
Microsoft Data Center イメージ・ビデオ

i/o ANYWHERE のコンテナ DC 紹介 – Youtube がカッコイイ

Posted in Data Center on Youtube, Data Center Trends by Agile Cat on September 2, 2011

i/o ANYWHERE® modular data center system
Unprecedented flexibility, reliability, and energy efficiency
http://www.iodatacenters.com/modular-data-center/

The i/o ANYWHERE® modular data center is delivered as a system and includes 100% of the critical infrastructure required for a high-density, always-on data center. From power delivery to cooling to network connectivity to 24x7xForever infrastructure monitoring, this patent-pending system is a fully integrated data center solution.

この i/o ANYWHERE® モジュール・データセンターはシステムとして供給され、あらゆるデータセンターで要求される高密度を、100% のレベルで達成するクリティカルなインフラストラクチャを含む。 このシステムでは、電力の供給から、ネットワーク接続、そして 24 x 7 x Forever インフラ・モニタリングまでが特許申請中であり、また、完全に統合されたデータセンター・ソリューションを提供する。

Not to be confused with a stand-alone ISO containerized data center design, the i/o ANYWHERE® modular data center system is comprised of up to 20 modules and can be customized to the customer’s requirement. This portable data center can be delivered to the customer’s location, to a dedicated off-site location, or at one of i/o’s data centers in a matter of weeks – not months or years. For more information about i/o’s modular data center, i/o ANYWHERE®, please watch the video above or use the navigation on the left to learn more.

スタンドアローンの ISO コンテナ・データセンター・デザインと混同しないで欲しい。 この i/o ANYWHERE® モジュール・データセンター・システムは、20 種類のモジュールにより構成され、また、顧客の要件に応じたスタマイズを実現する。 このポータブルなデータセンターは、顧客のロケーションおよび、専用のオフサイト・ロケーション、そして i/o のデータセンターに、数週という期間で提供される。 言い換えれば、数カ月や数年という時間は必要ない。 i/o ANYWHERE® モジュール・データセンターの詳細については、上記のビデオなどを参照して欲しい。

image

ーーーーー

TAG indexこのポストは、I/O の製品紹介ページを訳したものです。 つまり、コマーシャルなコンテントなのですが、その Youtube の面白さに、こうしてブログ・ポストまで作ってしまったというわけです。 まぁ、とにかく Youtube を ご覧くださ~い! ーーー __AC Stamp 2

ーーーーー

<関連>

AST の Free Cooling コンテナ DC を Youtube で!
Amazon AWS が Equinix に、ハイブリッド用のダイレクト接続を提供
アメリカの キャリア・エクスチェンジについて DCN が概説する
NTT America が DC にディプロイする燃料電池とは?
アメリカ 大手 データセンターの、2011 Q2 収支報告と株価
アメリカ政府が取り組む、データセンターの大規模コンソリデーション

 

AST の Free Cooling コンテナ DC を Youtube で!

Posted in Data Center on Youtube, Data Center Trends by Agile Cat on August 26, 2011

Video Overview: AST’s Free Cooling Module
August 24th, 2011 : Rich Miller
http://www.datacenterknowledge.com/archives/2011/08/24/video-overview-asts-free-cooling-module/

_ DC Knowledge

AST Modular recently helped a data center customer in Sydney, Australia expand its capacity with a double-decker containerized solution that added 17 racks cooled by outside air. The installation featured one 40-foot container filled with racks of servers, supported by AST’s Modular Natural Free Cooling Technology, a cooling module that sits atop the IT container.

最近のことだが、 AST Modular は Sydney Australia における、データセンターの拡張を支援している。そこでは、17 ラックを取り込んだ、外気空冷を用いた二段重ねのコンテナによりキャパシティを拡大している。 この設備は、AST の Modular Natural Free Cooling Technology によりサポートされる。具体的には、サーバー・ラックで満たされた 40 フィートの IT コンテナの上に、冷却モジュールを設置する方式が特徴となっている。

AST Modular Natural Free Cooling
クリックで拡大 ⇒
 

AST says the unit achieves an actual metered Power Usage Effectiveness of 1.09. The climate in Sydney allows the customer to use indirect airside economizers (free cooling) for 92 percent of the year. The system is controlled by management software that can switch between several modes of cooling: 100 percent free cooling at temperatures below 19° C (66 degrees F), partial economization with the use of adiabatic cooling, or mechanical cooling for temperatures approximately above 26° C (78 degrees F). This video provides an overview of AST’s Natural Free Cooling design, with illustrations of airflow and the air-to-air heat exchanger. It runs about 5 minutes, 30 seconds.

AST の説明によると、このユニットは PUE 1.09 ( Power Usage Effectiveness)の実際値に達成している。 Sydney の気候により、この顧客は年間の 92% において、間接的なエアーサイド・エコノマイザー(free cooling)を利用できる。 このシステムは、いくつかの冷却モードを切り替える、マネージメント・ソフトウェアにより制御される。19° C (66 degrees F) の気温であれば、100% のフリー・クーリングが利用できる。間欠性のエコノマイザーを、断熱性の冷却と組み合わせることも可能だ。 さらに、気温が 26° C (78 degrees F) 以上の場合には、メカニカルな冷却できる。 このビデオは、AST Natural Free Cooling の提供を提供し、また、エアーフローと、air-to-air 熱交換の仕組みも示している。 全体で、約 5分 30秒のビデオとなる。

ーーーーー

Amazon が Oregon のデータセンターにコンテナ・モジュールをディプロイしたのが、たしか 6月の話だったと思います。 このビデオを見ると、AST の顧客として IBM がいるのでしょうかね? いずれにせよ、地球上のアチラ・コチラに、このような、最新のデータセンターが構築されていくのでしょうね。 ーーー __AC Stamp 2

ーーーーー

<関連>

Amazon データセンターについて、James Hamilton が語る
IPCORE デザインのコンテナ型データセンターとは?
Amazon が コンテナを Oregon DC にディプロイした!
写真で見る、モジュール型 データセンター
データセンターにおける電力消費に対して、クラウドは回答となり得るのか?

 

Google データセンターのセキュリティ対策を Youtube で!

Posted in Data Center on Youtube, Google by Agile Cat on April 24, 2011

Video: Google’s Data Center Security
April 22nd, 2011 : Rich Miller
http://www.datacenterknowledge.com/archives/2011/04/22/video-googles-data-center-security/

_ DC Knowledge

A look at the inside of a Google data center in South Carolina, showing tape storage modules.
クリックで拡大 ⇒

Google today released a video showcasing the security and data protection practices in its data centers, which includes some interesting footage from the company’s data center in South Carolina. Most of the tour focuses on physical security and access control, including the security gates and biometric tools (iris scanners, in this case). It also showcases Google’s methodology for wiping and destroying hard disk drives when they fail or are taken out of service, including an on-site disk shredder. At about the 4 minute mark there’s the briefest of glimpses of the data center area, which shows tape libraries. This video runs about 7 minutes.

今日にリリースされた、Google におけるセキュリティとデータ保護のプラクティスを紹介するビデオには、同社の South Carolina データセンターから提供された、いくつかの興味深い映像が含まれている。 このビデオ・ツアーの大半は、物理的セキュリティとアクセス制御にフォーカスしたものであり、防犯ゲートやバイオメトリック・ツール(虹彩スキャナー)も含まれている。そして更に、HDD が故障した際や、サービスで不要になったときの、削除や破壊することに関する Google の方法論が、ディスク・シュレッダーの用法も含めて紹介されている。 このビデオの 4分目あたりで垣間見えるテープ・ライブラリは、データセンター・エリアを紹介する中で最も短い。なお、こデオ全体は、約 7分の構成となっている。

Near the end of the video there’s a reference to Google’s use of additional security measures not shown in the video – which can only be a reference to the sharks with friggin’ laser beams on their heads. Here’s a look at some of the coverage from Google’s previous disclosures about its data centers at the 2009 Data Center Efficiency Summit:

このビデオの終わり近くで言及される、Google が新たに追加したセキュリー対策は撮影されていない。 それは、獰猛なサメの頭に当てる、レーザー光線というものらしい。 なお、2009年の Data Center Efficiency Summit で、Google が紹介した、いくつかの情報について、以下のリンクから参照して欲しい:

ーーーーー

一番最後の段落の、Shark の下りですが、あまりにも唐突で、この訳で良いのか悪いのか、わかりません。 Shark を悪党と解釈することもできるのですが、いくら悪党でも、いきなり頭にレーザー光線では、あまりにも可哀想なので、やはりサメ退治用の何か、、、なんだと思います。 それにしても、あの HDD シュレッダーはスゴイ! ーーー __AC Stamp 2

ーーーーー

<関連>

Agile_Cat 空撮隊 – 世界の Google データセンターを空から散歩
Facebook – Oregon データセンターの写真が一挙公開!
Facebook – 対訳 – Building Efficient Data Centers with the Open Compute Project
データセンターのクラウド化を示す AFCOM の調査
Twitter が、新しいデータセンターへの移行を完了
日本でもコンテナ・データセンターが法律をクリアした!

 

SGI の ICE Cube が Air Cube になった – Youtube で ど~ぞ!

Posted in Data Center on Youtube, Data Center Trends by Agile Cat on December 18, 2010

Inside SGI’s Air-Cooled Modular Data Center
December 13th, 2010 : Rich Mille
http://www.datacenterknowledge.com/archives/2010/12/13/inside-sgis-air-cooled-modular-data-center/

_ DC Knowledge

Data Center Knowledge recently got a detailed video tour of the retooled SGI ICE Cube modular data center, which features fresh air cooling.

つい先日、新鮮な外気を用いる SGI の ICE Cube について、Data Center Knowledge はビデオツアーを収録する機会を得た。

SGI was one of the early players in the container data center sector with its water-cooled ICE Cube portable unit. Last week the company unveiled a retooled ICE Cube modular data center that can be cooled entirely by air. The fresh air cooling allows the unit to run outdoors in cool climates, improving energy efficiency by foregoing mechanical refrigeration.

SGI はコンテナ・データセンター部門における先駆者の 1人であり、そこでは水冷式の ICE Cube というポータブル・ユニットが用いられていた。 そして先週のこと、完全な自然空冷に対応するために再構成された、ICE Cube モジュラー・データセンターが明らかにされた。 新鮮な外気を用いた冷却により、ユニットを戸外に配置することが可能となる。 その結果として、機械的な冷却を排除することで、エネルギー効率が改善される。

At the Gartner Data Center Conference, SGI’s Patrick Yantz gave DCK a detailed tour of the new unit. Patrick provides an overview of the new orientation of the ICE Cube module, which allows easy expansion, and demonstrates how SGI’s software management package can remotely throttle fans up and down. This video runs about 13 minutes.

Gartner Data Center Conference において SGI の Patrick Yantz は、Data Center Knowledge に対して、この新しいユニットの詳細を説明してくれた。 Patrick は、この ICE Cube モジュールの新しい方向性を概説しているが、そこでは容易な拡張が実現されるという。 また、リモートでファンの速度を調整するために、SGI の管理ソフトウェア・パッケージが機能する様子もデモンストレーションされている。
このビデオは、およそ13分間の長編となっている。

For a comparison, see our 2008 video tour of the original ICE Cube Container built by Rackable, SGI’s predecessor company.

SGI の前身である Rackable の、オリジナル ICE Cube との比較も、2008 年のビデオを見ることで可能になる。

For more news on modular data centers, visit our Data Center Containers Channel. For additional video, check out our i/o Data Centers Channel and the Data Center Videos channel on YouTube.

モジュラー型データセンターについては、Data Center Containers Channel を参照して欲しい。 また、その他のビデオについては、i/o Data Centers Channel と、Youtube の Data Center Videos を参照して欲しい。

ーーーーー

正式な名称は、どうなるんでしょうかね? Air Cube の方が 格好イイ と思うのですが。。。  なお、以下の関連は、すべて Youtube 動画です! ーーー A.C.

ーーーーー

<関連>
三大コンテナ・ベンダーの競演
Azure Container DC – PDC 2009 – on Youtube
Google データセンターの水冷設備
データセンター・アセンブリの最速は?
HP のコンテナ・データセンタ-
Google コンテナ・データセンターを Youtube で!

Google がフィンランドに構築する海水冷却 DC の、改造風景を Youtube で

Posted in Data Center on Youtube, Data Center Trends by Agile Cat on December 8, 2010

Video: Google’s Finland Data Center Project

December 7th, 2010 : Rich Miller
http://www.datacenterknowledge.com/archives/2010/12/07/video-googles-finland-data-center-project/

_ DC Knowledge

We recently noted that Google will use water from the Baltic Sea to cool its new data center in Hamina, Finland. Google has refurbished the water pumps used at the former newsprint plant, and will use large pipes to draw cool water from the nearby Baltic Sea. Google bought the former Stora Enso newsprint plant for $51 million in 2009, and expects to invest 200 million Euros (about $252 million) in the project. A video posted on YouTube provides a look at the inside of the Hamina facility as Google begins retrofitting the massive facility for use as a data center.  Google engineers Joe Kava and Alistair Verney discuss the building’s infrastructure and innovative cooling system, which Google says has not been attempted before.

最近のポストにおいて、Google が Hamina, Finland に構築するデータセンターでは、Baltic Sea の海水を用いて冷却が行われると指摘した。 そのために購入された建物は、以前に新聞社が印刷プラントとして利用していたものであり、海水を汲み上げるためのポンプも Google に改造され、より太いパイプが使われることになる。 このプラントは、Google が Stora Enso 新聞社から、2009年に $51 million で購入したものであり、このプロジェクトにおいて、200 million Euros ($252 million) の投資が行われると予期される。この YouTube 上にポストされたビデオは、Google がHamina の設備をデータセンターとして大改造する際の、内部の状況を映し出している。  また、Google のエンジニアである Jo e Kava と Alistair Verney が、この建物のインフラストラクチャと革新的な冷却システムについて初めて解説している。

A look at the interior of a former paper mill in Hamina, Finland
that Google is converting into a data center.

Google will use cool sea water in the cooling system for its new data center. Google has refurbished the water pumps used at the former newsprint plant, and will use large pipes to draw cool water from the nearby Baltic Sea.

この新しいデータセンターの冷却システムでは、冷たい海水を用いられる。そして、新聞社の印刷プラントで用いられていたポンプが改造され、より大量の海水を、隣接する Baltic Sea から汲み上げることになる。

A number of projects use cold water from large fresh water lakes for cooling. Cold water cooling systems that tap nearby bodies of water tend to have a high up-front cost in the pipe work, but offer huge savings over the long run.

多くのプロジェクトにおいて、たとえば湖の淡水が冷却のために使用されている。 そのような、大規模な利水を伴う冷却システムでは、その配管のための膨大なコストが発生するという傾向にあるが、長期的にみると運用コストが大幅に低減される。

Google built its first chiller-less data center in Belgium. Chillers, which are used to refrigerate water, are widely used in data center cooling systems but require a large amount of electricity to operate. With the growing focus on power costs, many data centers are reducing their reliance on chillers to improve the energy efficiency of their facilities. Google, Yahoo and Microsoft have all built facilities that use fresh air to cool their server rooms. In the Hamina example, Google is using chilled water, but effectively using the sea as its chiller.

Google は Belgium において、最初のクーラー・レス・データセンターを作った。 水を冷やすためのクーラーは、データセンターの冷却装置において広く用いられているが、それを動かすために大量の電力が必要とされる。 消費電力に対する注目が増大してきたことで、多くのデータセンターは、クーラーに対する依存率を減らすことで、エネルギー効率を改善する方向にある。 Google や、Yahoo、Microsoft は、新鮮な外気をサーバー・ルームに取り入れることで冷却を行う設備を構築している。 そして Hamina の事例では、Google は冷たい海水を用いることで、そのデータセンターを冷却しようとしている。

ーーーーー

<関連>
Google が大規模データセンターをフィンランドに構築
Google データセンターの水冷設備
Google が最新データセンターへの取り組みを再開!
46MW を湖水で冷却する、アルプスの巨大データセンター
なぜ、Google はアジアの海底ケーブルに投資する?

%d bloggers like this: