Agile Cat — in the cloud

Data Centers の調査 : データセンターの効率を多角的に考える

Posted in .Selected, Data Center Trends, Energy, Research by Agile Cat on December 2, 2013

Data Centers: A New Generation of Denser, More Power-Efficient Computing Centers
http://wp.me/pwo1E-6Yh
By Dick Weisinger – November 25th, 2013
http://formtek.com/blog/data-centers-a-new-generation-of-denser-more-power-efficient-computing-centers/

_ FormTek

“A 10-megawatt (MW) data center can use the energy of a small town at a cost of around $300,000 a month. Couple that with the fact that there are over 500,000 data centers in the world, and we’re talking about 2% of all electrical energy used globally. So, running the internet uses upwards of 406 terawatts per year, assuming 20.3 petawatt-hours as the world’s annual electrical energy consumption,” reports CleanTechnica.

「10 MW のデータセンターは、小さな町が消費する全電力に相当する、$300,000 という対価を 1ヶ月に支払っている。地球上には 50万ヶ所以上のデータセンターが存在するという事実と、その事を組み合わせると、この世界で消費される全電力の 2% が、この産業に費やされていることになる。つまり、世界中の年間での電力消費量が 20.3 Peta Watt/H であり、また、インターネットを運用することで 406 Tera Watt/H の電力が消費されると想定すると、そのような比率になる」と、CleanTechnica がレポートしている。

Making data centers more efficient can save tremendous amounts of both electric power and money. Increasingly data centers are focusing on reducing their size and improving kilowatt-per-hour performance. This is leading to a strong focus on creating energy-management information systems which can monitor performance and promote efficiency.

データセンターの効率化を図ることで、途方もない電力と、膨大なコストを、両面から節約できる。これからも、増設されていくデータセンターにおいて、その規模は縮小されるべきであり、また、より以上の性能を、同量の電力から引き出せるようにすべきである。そのためには、パフォーマンスを監視し、効率化を促進するための、エネルギー・マネージメントに関する情報システムの開発が、強い意志のもとで推進されなければならない。

In order to become more energy efficient, data centers are increasingly refreshing the servers that they house at a faster rate. Typically servers are refreshed about every four years, but when potential energy cost savings are factored in, it is actually better to instead replace servers every two years. Doing that, provides more CPU horsepower for the same amount of power and cooling within the same footprint.

電力効率を高めるために、データセンターは、これまで以上に速いサイクルで、ハウジングしているサーバーをリフレッシュしていく。一般的にみて、サーバーは 4年ごとに交換されているが、潜在的なエネルギー・コストの削減を織り込んでい場合には、2年ごとにサーバーをリフレッシュするほうが、実質的に優れた選択となる。そうすることで、より多くの CPU パワーを同量の電力から引き出すことが可能になり、また、同じ設置面積に対するクーリングの効率も高まる。

David Cappuccio, chief of research for infrastructure teams at Gartner, said that “many times, datacenter managers or facilities teams start with the following assumption: We are out of (or near) capacity in our datacenter, therefore when we build next we will need more space. If we have 5,000 square feet today we must need at least 7,500 or more to sustain our growth. The error is that the focus is on square footage, not compute capacity per square foot (or per kilowatt)… A data center manager who rethinks his organization’s floor plans, cooling and server refreshes can house the increased computing capacity in the original floor space, and help meet growing business needs indefinitely. We will witness small data center environments with significant computing growth rates maintaining exactly the same footprint for the next 15 to 20 years.”

Gaetner の  Chief of Research for Infrastructure Teams である David Cappuccio は、「 データセンター管理者や、ファシリティ・チームは、いつも、以下を前提として考え始めてしまう:いまのデータセンターでは、キャパシティが足りなくなっているので、次のものを構築するなら、より広いスペースが必要になる。 今後の成長を維持するには、いまの 5000 平方フィートに換えて、少なくとも 7500 平方フィート以上が必要となる。・・・ こうした間違えは、面積だけにフォーカスし、面積あたりのコンピューティング容量(もしくはキロワットあたりの容量)を、計算していないところから生じる ・・・ 対象となるフロアと、クーリング、サーバー更新サイクルのプランについて、再考するデータセンター・マネージャであれば、同じだけの床面積に、増大するコンピューティング容量を収容し、そのビジネス・ニーズを満たすだけの成長を、永続的に達成していける。今後の 15年〜20年 において、まったく広がらない床面積を維持しながら、また、データセンターとしては小規模でありながら、コンピューティング容量が大幅に成長していくという歴史の、私たちは目撃者となる」と発言している

ーーーーー

TAG indexこれまでにも、サーバーの交換サイクルは 3年が良いと言われていましたが、それを 2年に短縮すべきという話ですね。先月にソウルで開催された OCP のワークショップでは、Oregon および、North Carolina、Lulea、Iowa で進められている Facebook のデータセンターが、それぞれ 3棟ずつの構成になるという資料が提示されていましたが、その中の 1棟は、つねに改装中という考え方なのかもしれませんね。そして、改装が行われるたびに、消費電力とコンピューティング密度が、段階的に改善されていくのでしょう。それは、フロント・パネルなどの飾りをサーバーから無くしていこうという、最近のトレンドの論理的な裏付けだとも言えるのです。__AC Stamp 2

ーーーーー

<関連>

Hybrid の調査 : ベスト・クラウド は Private と Public のブレンドから
Data Center の調査 : DC 内 IP トラフィックが 2017年には 3倍に増大する
VPC の調査 : プライベート・クラウドの仮想化は、新しいトレンドになり得るのか?
Hybrid の調査: プライベートはハイブリッドへと変異する宿命にある
Mobile の調査 : 無償アプリが支配する モバイルの市場

Comments Off on Data Centers の調査 : データセンターの効率を多角的に考える

Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう

Posted in .Selected, Data Center Trends, Facebook, Google, Open Compute, Strategy by Agile Cat on August 28, 2013

Forget servers; One day Facebook, Google and other web giants will make their own custom chips
http://wp.me/pwo1E-6xC

By
Stacey Higginbotham
http://gigaom.com/2013/07/06/forget-servers-one-day-facebook-google-and-other-web-giants-will-make-their-own-custom-chips/

_ Gigaom

Summary: Will web giants soon follow in Apple’s footsteps with the iPhone, and design specialty silicon for the servers running their operations? An AMD executive thinks that day is around the corner.

Summary: Web の巨人たちは、すぐにでも Apple における iPhone の足跡をたどり、彼らが運用するサーバーに特化された、シリコン・チップをデザインしていくのだろうか?  ある AMD の幹部は、その日が迫っていると考えている。

ーーーーー

photo: (c) 2013 Pinar Ozger
pinar@pinarozger.com

It has become clear that ARM is invading the data center as chips built using its designs grow more powerful for enterprise computing loads and as the workloads and economics of webscale computing make the ARM architecture more attractive. But using ARM cores also changes the cost of designing a new chip, and frees the non-CPU elements on the chip from being dictated by a specific vendor.

しだいに明らかになってきたことは、ARM はエンタープライズ・コンピューティングにおける負荷とワークロードに対して、チップ構成をパワフルにしていくためのデザインを成長させ、データセンターに侵入しようとしていることだ。そして、Web スケール・コンピューティングの経済が、ARM アーキテクチャをより魅力的にする。さらに言えば、ARM Core の利用は、新しいチップのデザイン・コストを変更し、特定ベンダーにより決定されている、チップ上の non-CPU 要素を解放する。

Both of these trends are driving webscale companies to discuss making custom CPU cores for their specific workloads, and are allowing startups to try to break into the world of interconnect fabrics and memory management that used to be locked to a specific x86 core. Right now big web companies like Google and Facebook are designing and building their own gear but soon they may want to have a few chip designers on hand as well.

これらのトレンドが、Web スケール・カンパニーにおけるワークロードに対応する、カスタム CPU コアを作成しようという議論を推進している。 つまり、x86 コアにロックされてきた、インターコネクト・ファブリックとメモリ・マネージメントの世界への、スタートアップたちによる侵入を許容しようとしているのだ。そして、いま、Google や Facebook といった巨大な Web カンパニーは独自のギアを設計/構築しているが、それほどの時間を待つことなく、チップ・デザイナーも手中に収めたいと考えるだろう。

With ARM custom server chips are cheaper and faster

Facebook’s Open Compute
technologies on a rack.

Andrew Feldman, GM and corporate VP at AMD, explained this idea in a series of conversations with me over the last few weeks in which he estimated that one could build an entirely custom chip using the ARM architecture in about 18 months for about $30 million. He compared this to the three or four-year time frame and $300 million to $400 million in development costs required to build an x86-based server chip.

AMD の GM and Corporate VP である Andrew Feldman は、この数週における私との会話の中で、いくつかの考えを説明してくれた。そのときに、彼は、ARM アーキテクチャを用いる完全なカスタムチップの構築が、約18ヶ月の時間と、$30 million のコストで実現されると推定していた。そして、x86 ベースのサーバーチップを構築するためには、3年~4年のタイムフレームと、$300 million ~ $400 million のコストが必要になるとも比較していた。

He wrote in an email:

This vast change in the cost and time to market opens the door for large CPU consumers (mega data center players) to collaborate with ARM CPU vendors–say by paying part of the cost of development– in return for including custom IP that advantages the Mega Data center owners software/offering. There are conversations underway on this topic with nearly every major megadata center player in the world. The mega data center owners are building warehouse scale computers. It is not surprising that they have ideas on custom IP that would advantage their own software and would like that IP embedded into a CPU — ARM makes this feasible by bringing down the cost and development time of CPU creation.

この、立ち上げまでのコストと時間における大きな変化により、大規模な CPU 消費者(メガ・データセンター)が開発コストの一部を支払うことで、ARM CPU ベンダーとの協業のドアが開かれるだろう。そして、見返りとして、メガ・データセンターの所有者たちは、ソフトウェアと提供物に先進性をもたらす、カスタムな IP を得ていく。ほぼ、すべての、世界のメガ・データセンター・プレーヤーたちが、このトピックに関連して、なんらかのビジネスを進めているはずだ。つまり、メガ・データセンターの所有者は、倉庫のような規模のコンピュータを構築しようとしている。彼らが、自身のソフトウェアにおけるアドバンテージとして、カスタムな IP のアイデアを有し、それの IP を CPU に組み込もうとしていても、さほど驚くべきことではない。  ARM は、CPU 開発におけるコストと時間を抑制することで、それを可能にするのだ。

This is a deeper component to Feldman’s talk at Structure about how the shifts in personal computing habits from PCs to less powerful mobile phones and tablets has changed the infrastructure needs of web companies that do most of the computing in the cloud for these devices.

それは、Structure で Feldman が説明した、奥行きのある構成要素に関するものだ。つまり、PC から、それほどパワフルではないモバイルやタブレットへと向けた、パーソナル・コンピューティングにおける傾向の変化が、それらのデバイスのためのクラウド・コンピューティングを提供する、大半の Web カンパニーのインフラ・ニーズをシフトさせるというものである。

Yet custom chips aren’t limited to improving the computing economics at webscale vendors. Feldman said there is a company using custom-made chips on boards to mine Bitcoins, a rumor I had heard at our Structure event, but couldn’t confirm. I’m not sure if the custom-chips are using ARM cores however.

しかし、カスタムチップにおける経済性の向上は、Web スケール・ベンダーのコンピューティングに限定されるものではない。Feldman は、Bitcoins をマイニングするボード上で、カスタム・メイドのチップを使用した企業があるとも発言していた。そのウワサは、私たちも Structure イベントで聞いたが、実態を確認することはできなかった。また、そのカスタム・チップが ARM コアを使用しているのかどうかも分からなかった。

The point however is the same. Building a custom-chip that can efficiently mine Bitcoins is totally worth the cost of building such a processor.

しかし、視点は同じである。 つまり、Bitcoins を効率的にマイニングするカスタム·チップには、そのようなプロセッサを構築するコストに見合うだけの、価値が含まれるという事例である。

But wait, there’s more!

So the Facebooks, Amazons and Googles of the world may soon make their own chips so they can take full control of their computing economics. It may already be happening: Back in 2010 Google bought a company called Agnilux that reportedly was trying to build a power efficient server chip, and details about what Google did with that company are scant. Maybe it’s designing its own server silicon already, much like Apple designs its own iPhone and iPad processors.

したがって、世界における Facebook/Amazon/Google の人々は、ただちに自身のチップを作成することで、自身のコンピューティング経済を完全にコントロールできるだろう。すでに、それが生じている可能性もあル。  話は 2010年に戻るが、Google が買収した Agnilux は、電力効率の良いサーバーチップを構築する会社だった。しかし、Google が Agnilux を使って、何をしたかのかという情報は乏しい。おそらく、Apple が iPhone と iPad の独自プロセッサをデザインしたように、独自のサーバー・チップをデザインしているのかもしれない。

But the use of ARM cores for the CPU also means that there’s a secondary effect for startups and webscale vendors. Today’s CPUs are generally composed of the CPU core and all the related IP associated with how the CPU gets and sends bits; things like I/O, memory controllers, PCI Express interconnects and other elements that most people don’t ever think about are also on a typical x86 chip. Feldman calls these other elements Bucket 2 (the core is Bucket 1).

しかし、CPU のための ARM コアの活用により、スタートアップや Web スケール・ベンダーにとって、二次的な効果も生じることになる。今日の一般的な CPU は、CPU のコアと、CPU に関連する IP(ビットの送受信や、I/O という発想、メモリ・コントローラ、PCI Express 相互接続など)で構成されている。そして、大半の人々は、それらの IP が、一般的な x86 チップにも存在しているとは考えていない。Feldman は、それら一連の要素を Bucket 2 と呼んでいる(Bucket 1 は CPU コア)。

He wrote:

Because Intel and AMD were the only x86 game in town we each developed our own cores (Bucket 1) and each developed our Bucket 2 items as well. There has no been ecosystem, and little innovation in Bucket 2. We have limped along with incremental improvements from one generation to the next. It hasn’t made sense to start a company to do an on-chip fabric (to more intelligently tie cores together), or a better memory controller, or an application accelerator, because you only have two prospective customers, Intel and AMD both working on competitive projects. (Who wants to start a company with 2 potential customers?)

マーケットで競合する x86 は、Intel と AMD だけから提供されているため、それぞれが自身のコア(Bucket 1)を開発し、また、自身の Bucket 2 も開発している。したがって、そこにはエコシステムが不在であり、また、Bucket 2 には、わずかなイノベーションがあるのみである。つまり、私たちは、ある世代から次の世代へと、インクリメンタルな改善を引きずっているだけだ。したがって、このような形態は、オンチップ·ファブリック(よりインテリジェントなコア間接続)や、より効率の良いメモリ·コントローラ、そして、アプリケーション・アクセラレータを実現する、新たな企業を立ち上げるという意味で理にかなっていない。なぜなら、それらのスタートアップから見ると、Intel と AMD という競争力のあるプロジェクトを抱える、2つの潜在顧客しか存在しないからだ(そのような狭い市場で、誰が起業したいと思うだろう?)。

But in the ARM world things are different. Because any number of players can license an ARM core, each one is looking for points of differentiation outside the core (some with architecture licenses are looking to tweak the core itself) and can make chips with better I/O or specific workload accelerators. An example here is Calxeda, which is using an ARM core in highly dense servers but has also built a custom interconnect to send information rapidly between its hundreds of ARM cores.

しかし、ARM の世界は、それとは異なる世界である。何人かのプレイヤーが、ARM コアのライセンスを取得できるため、それぞれがコアの外側で、差別化のためのポイントを探すことになり(アーキテクチャ・ライセンスを持つプライヤーは、コア自体もの手を加えようとしている)、また、さらに効率の良い I/O や、特定のワークロードのためのアクセラレータをもつ、チップを作成することが可能である。事例としては、ARM コアを高密度サーバに用いる Calxeda が挙げられるが、そこれは、何百という ARM コアの間で、情報を迅速に送信するための、カスタム相互接続も構築されている。

So when the mega data centers look at the opportunities presented by ARM, it’s not as simple as buying a piece of silicon from Marvell or Applied Micro, or a Calxeda box from HP. According to Feldman, web giants are looking at co-developing ARM-based chips that will take advantage of the greater levels of customization offered outside of the CPU so they can optimize for their own applications’ needs.

したがって、メガ・データセンターでは、ARM から提示される機会に注目するのだが、 Marvell や Applied Micro からシリコンの断片を買うように、また、HP から Calxeda ボックスを買うように、シンプルなものではなくなってきている。Feldman によると、Web の巨人たちは、ARM ベース・チップの共同開発に注目している。それにより、CPU の外側で提供される、ハイレベルなカスタマイズを活用し、個々のアプリケーションのニーズに合わせた最適化を実現しようとしている。

This is a huge shift for the industry with big implications from players as diverse as Intel, the server makers and corporate IT buyers who suddenly may face higher cost computing than the web and cloud giants — making the move toward outsourcing IT more practical.

それは、Intel や サーバーメーカー、そして 企業の IT 購買が作り上げてきたものと同じくらいの、多様性を持ったプレーヤーたちが提供する、大きな意味を用いた業界の巨大シフトとなっていく。そして、従来からの構造を引きずる者たちは突如として、Web と Cloud の巨人たちと比較して、高額なコンピューティング・コストに直面する可能性を持つだろう。つまり、より実用的な IT アウトソーシングへ向けた移行がもたらされるのだ。

Related research

ーーーーー

image23データセンター用のカスタム・チップって、イイですね! 以前にポストした、『 OCP Summit 2013 キーノート : モノリスを破壊する! 』という抄訳では、Facebook の Frank Frankovsky さんが、ーーー すべてにおいて、最もエキサイティングなのは一連の新規開発であり、これまでのテクノロジーをさらに有効利用していくための、大きなステップを与えてくれる。 1つの産業として、私たちが直面する課題は、そこで構築/消費されていくハードウェアが、きわめてモノリシックでであるという点だ。つまり、私たちのプロセッサは、私たちのマザーボードと不可分であり、さらに言えば、特定のネットワーク・テクノロジーなどとも不可分である。こうした硬直した関係で、すべてが構成されているのだ。 そのため、急速に進化するソフトウェアに追いつくことの出来ないコンフィグレーションが、不完全なシステムへと導かれ、たくさんのエネルギーとマテリアルを浪費してしまう。ーーー と語っています。こうした懸念が、CPU レベルから払拭されていくのかもしれませんね。image

ーーーーー

<関連>

Open Compute 台湾 が 立ち上がった!
Open Compute について、知っておくべき 10 の事柄
Open Compute と Quanta : 台湾の無印サーバーが 米国マーケットを席巻する!
OCP データセンターと、高温多湿気候との関係について
無印 サーバー は 22% UP : ブランド サーバー は DOWN – Gartner 2012 Q4

Comments Off on Google や Facebook は、サーバー用の カスタム CPU に取り組むだろう

Amazon が CPU ビジネスに参入 : あの TI を買収する?

Posted in .Selected, Amazon, Data Center Trends, Mobile, Post-PC by Agile Cat on October 17, 2012

Why Amazon might buy TI’s mobile chip business
http://wp.me/pwo1E-52G

Oct 15, 2012 – 7:07AM PT – By
Kevin C. Tofel
http://gigaom.com/mobile/why-amazon-might-buy-tis-mobile-chip-business/

_ Gigaom

Reports of Amazon considering the purchase of Texas Instruments’ mobile chip business for billions of dollars may not make sense at first glance. But there are several reasons why such a deal could make sense for Amazon in both devices and cloud computing activities.

Amazon が Texas Instruments のモバイル・チップ部門を、何十億ドルかで買収を検討中というレポートだが、一見しただけでは、その意味が理解できないかもしれない。 しかし、デバイスとクラウド・コンピューティングという 2つのアクティビティにおいて、このような買収が Amazon に利益をもたらすという、いくつかの理由も存在する。

ーーーーー

imageAmazon is considering a bid for Texas Instruments’ mobile chip business unit. The Next Web noticed that an Israeli news site, Calcalist, reported on Monday that the deal is in advanced negotiations and will be valued at billions of dollars; TI’s market cap is currently $32.35 billion. Texas Instruments’ OMAP line of chips powers various phones, ereaders and tablets, but the company has been steadily losing ground to other chip makers in this market, such as Qualcomm, Nvidia, and Samsung. TI will reportedly keep its other lines of business for sensors and automotive chips.

Amazon は Texas Instruments のモバイル・チップ部門を、買収しようと考えている。この買収劇が、事前交渉の段階にあると、Israeli のニュース・サイトである Calcalist がレポートしたことを、The Next Web は指摘している。そして、何十億ドルの評価が成されているが、TI の時価総額は $32.35 billion となる。 Texas Instruments のチップである OMAP シリーズは、各種のスマートフォン、電子書籍リーダー、そしてタブレットにパワーを供給する。しかし 同社は、Qualcomm や、Nvidia、Samsung といったチップ・メーカーたちに、このマーケットで負け続けている。 伝えられるところによると、TI は、センサーと自動車関連のチップ事業を、継続していくようである。

Indeed, TI’s OMAP line has had few major product design wins of late. It powers the new Kindle Fire HD tablets, the Barnes & Noble Nook Tablet, and a fair number of Motorola phones. Even Motorola, however, has recently switched to alternatives from Qualcomm: The company’s new Razr HD and Razr HD Maxx will use a Qualcomm Snapdragon chip; a change from the prior Razr models that relied on a TI OMAP.

実際のところ、TI の OMAP シリーズは、メジャー・プロダクトのデザインにおいて、いくつかの勝利を収めるようになってきた。新しい Kindle Fire HD タブレットや、Barnes & Noble の Nook Tablet、そして、いくつかの Motorola スマートフォンにパワーを供給している。その Motorola においては、最近なって Qualcomm からの切り替えが生じている。 ただし、Motorola 新しい Razr HD と Razr HD Maxx は、TI の OMAP に頼っていた以前の Razr モデルとは異なり、Qualcomm Snapdragon が用いられるだろう。

Texas Instrument’s OMAP woes, however, could be a benefit to Amazon in several ways. First, although the up-front cost would be massive, the purchase could cut the unit costs to produce hardware such as Kindle e-readers and tablets. Currently, Amazon sells hardware roughly for cost, with hopes of recouping revenues and profits through content sales. By producing chips in house, profits could be seen on the hardware although it could time to realize such benefits; it’s not cheap to sink money into long-term capital such as chip fabrication production lines.

Texas Instrument の OMAP を買収することは大事業であるが、いくつかの意味において、Amazon に利益をもたらすかもしれない。 まず、最初に、膨大な前払いコストが生じるだろうが、この買収により、たとえば Kindle の ブック・リーダーやタブレットのようなハードウェアを、生産するためのコストが削減される。 現時点において、大まかなところで Amazon は、そのハードウェアを原価で販売し、コンテンツの提供を介して売上と利益を取り戻そうとしている。つまり、インハウスでチップを製造することで、ハードウェアにおいても利益を得られるようになるが、それまでには時間が必要となる。 そして、チップ・ファブリケーションの生産ラインなどに対して、長期間にわたる膨大な資本投下が欠かせない。

imageHaving its own chip business could lead Amazon to customize the silicon so that its optimized for Amazon’s products. This approach is similar to that of Apple, which creates custom chips that are made to run iOS to its full potential. While Amazon doesn’t have a mobile operating system of it’s own, the company is using Google Android as a base with Amazon software for the user interface. With a chip business, Amazon could improve the performance of its tablets by optimizing the union of silicon and software.

Amazon 自身でチップ・ビジネスを保持することで、そのプロダクトに最適化するためのシリコンのカスタマイズが可能となり、Amazon はリードを確保できる。 このアプローチは、Apple が iOS をフル・ポテンシャルで実行するために、カスタム・チップを製造する考え方に類似している。 Amazon は自身の OS を持たないが、Google Android をベースとして用い、そのユーザー・インタフェースを自社で開発している。Amazon はチップ・ビジネスに参入することで、シリコンとソフトウェアの組み合わせを最適化し、そのタブレットの性能を改善することが可能となる。

This situation does cause one to think about Amazon getting into the smartphone business as well. As noted, TI’s OMAP chip already powers numerous Motorola handsets as well as my own Samsung Galaxy Nexus handset. I’d say there’s an outlier chance here as the smartphone market isn’t an easy one to crack. It’s not out the realm of possibilities, of course, and if Amazon is going to spend billions for a chip business, it will surely want to maximize its return on that investment.

こうした状況により、スマートフォン・ビジネスにも、Amazon が参入してくる可能性を生じるだろう。 前述のとおり、TI の OMAP チップは、数多くの Motorola ハンドセットだけではなく、私が使用する Samsung Galaxy Nexus ハンドセットにもパワーを供給している。そこに、別のチャンスがあると思われるほど、スマートフォン・マーケットの理解は難しい。 もちろん、Amazon に可能性が無いという話ではなく、また、チップ・ビジネスに何十億ドルを費やすなら、その投資に対する最大限のリターンが望まれるであろう。

That leads to one other possibility here if Amazon were to buy the OMAP business from TI: Servers. While Amazon is known as a retail and content company, it’s a cloud company when you peek inside.

もし Amazon が、TI から OMAP ビジネスを買収するなら、そこには、別の可能性が生じる。 つまり、サーバーである。 Amazon は、リテールとコンテンツの企業として認識されているが、その内側を見れば、クラウドの企業でもある。

The company relies heavily on its cloud services for the retail experience, Whispersync technology and its AWS, or Amazon Web Services which let users rent computing storage and processing power in the cloud. For some time, x86 chips have powered cloud-based servers, but cloud computing can be done on smartphone chips as well; an OMAP purchase could reduce Amazon’s cloud costs and even lead to custom hardware that’s more power efficient.

同社は、リテール・エクスペリエンス/Whispersync テクノロジー/AWS(Amazon Web Services)において、そのクラウド・サービスに大きく依存している。 そして、それは、ユーザーに対してクラウド上のコンピューティング・ストレージとプロセシング・パワーを提供するものでもある。 しばらくの間は、クラウド・ベースのサーバーに対しては、x86 チップがパワーを供給していくが、スマートフォン用のチップも利用されてきている。つまり、Amazon は OMAP を買収することで、自身のクラウド・コストを低減させ、また、さらに効率の良い、カスタム・ハードウェアへと導いていく可能性もあるのだ。

Subscriber Content

ーーーーー

imageオンライン・リテールの理想と効率化を追求するために、どのベンダーにも依存することなく、逆に言えば、それらのベンダーに追随を許さない、クラウドを構築してしまった Amazon。 そして、Post-PC デバイスの理想と効率化を追求するために、今度は、チップまで生産していこうと言うのでしょうか? これはまた、ド迫力の展開になりそうですね。 image

ーーーーー

<関連>

Amazon 宣言 : すべてのデバイスを原価で提供する – Jeff Bezos
Android Tablet の出荷数が、iPad の 40% に迫っている?
Kindle Fire には 7 inch HD 版もある : 価格は $199 で Nexus 7 とガチンコだ
Amazon が 新 Kindle Fire を発表: 価格は $159 で 9月14日 に出荷
Amazon AWS の年商は、どう見ても $ 1 billion を超えている
NASDAQ の FinQloud は、AWS ベースの金融サービス・プラットフォームだ

 

Comments Off on Amazon が CPU ビジネスに参入 : あの TI を買収する?

0.1 NANO メーターのトランジスタと CPU の進化 – インフォグラフ

Posted in .Chronicle, .Selected, IoT, Post-PC, Research by Agile Cat on March 5, 2012

The single-atom transistor is here – the amazing evolution of microprocessors (infographic)
http://wp.me/pwo1E-3Z7
Posted in
Main on February 29th, 2012 by Pingdom
http://royal.pingdom.com/2012/02/29/the-single-atom-transistor-is-here-the-amazing-evolution-of-microprocessors-infographic/

_ pingdom

A team of researchers in Australia has managed to create a transistor that is the size of an atom. That’s the smallest transistor ever created. Considering that the single-atom transistor is only 0.1 nanometer in size, the possible applications are mind-boggling.

Australia の研究チームが、アトム・サイズのトランジスタ開発に成功した。 それは、現在までに作られた中で、最も小さいトランジスタである。 そのシングル・アトム・トランジスタのサイズが、わずか 0.1 nano meter であることを考えると、その、予想される応用分野の広がりに唖然としまう。

image

It will be quite some time before we see the single-atom transistor technology implemented in microprocessors that we use in computers and other devices. But this is such a thrilling development that we wanted to find out how it fits in with how microprocessors have evolved so far.

こののシングル・アトム・トランジスタのテクノロジーが、コンピュータなどのデバイスで用いられるマイクロプロセッサに実装されまで、かなりの時間を必要とするだろう。 しかし、それは、とてもワクワクする開発であり、これまでのマイクロ・プロセッサが進化してきた道筋と、どのように適合するのか、見極めたいと思う。

クリックで拡大 ⇒ 

How small can a transistor be?

With the single-atom transistor now a reality, at least in research labs, we charted the evolution of microprocessor manufacturing. We think you will agree with us; it’s quite a dramatic development over just 41 years. And things get even wilder when we gaze into the future, comparing the microprocessor manufacturing processes of today and yesterday with what is waiting around the corner.

少なくとも研究室レベルで、このシングル・アトム・トランジスタが実現されたので、これまでのマイクロ・プロセッサ・マニュファクチャリングに関する進歩を図式化してみた。 それは、誰もが同意することだと思うが、わずか 41年の間に、きわめてドラマティックな開発が行なわれてきた。 そして、昨日までと将来のマイクロ・プロセッサ製造プロセスを比較し、また、明日に待っている出来事を考えると、その全てが、熱狂的なものへとかたちを変えていく。

Moore’s law will hit the wall

Gordon Moore gave name to the law that has been dominating the microprocessor evolution over the last 42 years.

Gordon Moore は、これまでの 42年間にわたって、マイクロ・プロセッサの進化を統治するような、不文律を与えてくれた。

Moore himself declared in 2005 that the law named after him was dead, when he said: “In terms of size [of transistor] you can see that we’re approaching the size of atoms which is a fundamental barrier, but it’ll be two or three generations before we get that far.”

しかし、彼にちなんで名付けられたムーアの法則が、すでに死んでいることを、Moore 自身が 2005年に宣言している。そのときに、彼は、「トランジスタの大きさと言う意味において、私たちがアトム・サイズに近づいていることを、誰もが知るようになるだろう。 そこには、ファンダメンタルな面での障壁が存在し、私たちが成功をおさめるのは、2世代~3世代 先になるだろう」と発言している。

That may just become reality possibly sooner than even Moore thought.

ひょっとすると、それは、Moore が考えるより早く実現するのかもしれない。

ーーーーー

TAG index先日、「 SeaMicro を買収した AMD は、ARM ライセンスの取得へと向かうのか? 」というコンテントをポストしました。 その中に「その本当の価値は、SeaMicro サーバー内において、何百というプロセッサ間で交信を管理するために特化された、ファブリックと呼ばれるチップにある」と書かれていましたが、このポストにあるようなトランジスタ技術と結びつき、私たちが想像し得ないコンピューティングを実現してくれそうに思えます。 ーーー ac-stamp-232

ーーーーー

<関連>

いま、1分間に 640TB のデータが、グローバル IP 上を飛び交っている
1秒間に8人のユーザーが増えていくインターネットの世界
2011年のインターネットを、数字を用いて検証していく
この 3年間で、インターネット上での攻撃が 2000% も増えている
20 枚の Charts – 2011年の後半

Comments Off on 0.1 NANO メーターのトランジスタと CPU の進化 – インフォグラフ

%d bloggers like this: