Agile Cat — in the cloud

Cloud の調査:データセンターの電力消費量は、どのように推移していくのか?

Posted in Data Center Trends, Green IT, On Monday by on August 16, 2016
Cloud Computing: Data Centers Designed for Hyperscale Have Potential for Dramatic Energy Savings
Dick Weisinger – August 8th, 2016
_ formtek
In 2014 data centers in the United States used 70 billion kWH about 1.8 percent of all energy consumption and enough to power about 6.4 million homes peryear, according to a report from Lawrence Berkeley National Labs (LBNL).  Data centers have seen huge increases in power consumption over the last fifteen years.  Most notable is the dot-com period from 2000-2005 when power consumption surged by 90 percent.
Lawrence Berkeley National Labs (LBNL) のレポートによると、2014年の米国におけるデータセンターは 700億kWh を消費している。それは、全米のエネルギーの 1.8% に達し、また、640万世帯の消費量に相当するものとなる。この 15年間において、データセンターの消費電力は大幅に増加している。最も注目すべきは、2000年〜2005年のドットコム時代であり、この間には 90% も消費電力が急増している。
Gauguin_1Based on projected growth and current data center energy usage, between now and 2020, power consumption will continue to grow annually about four percent per year.  But the report suggests that instead data centers should adopt more energy efficient policies.  For example, the report finds that by shifting to ‘hyperscale operators’ that data center energy consumption would actually drop by as much as 45 percent by 2020.
現時点のデータセンターでのエネルギー使用量に基づき、いまから 2020年までの間の電力消費量は、年間で 4% ずつ上昇するとされる。しかし、このレポートは、よりエネルギー効率の高いポリシーが、データセンターで採用されると示唆している。たとえば、ハイパースケールな事業者へ向けたシフトが生じることで、データセンターにおける 2020年のエネルギー消費量が、2020年には 45% も削減されると、このレポートは指摘している。
Hyperscale is the practice of data centers for deploying massive numbers of virtual servers using generic off-the-shelf computing equipment.  The approach tries to maximize the usage of hardware resources and reduces physical space, cooling and power requirements.  Cloud Computing vendors are best positioned to deploy hyperscale technologies.
The LBNL report found that “the potential for data center services, especially from a global perspective, is still in a fairly nascent stage, and future demand could continue to increase after our current strategies to improve energy efficiency have been maximized. Understanding if and when this transition may occur and the ways in which data centers can minimize their costs and environmental impacts under such a scenario is an important direction for future research.”
LBNL レポートは、「グローバルな視点から見ると、データセンター・サービスにおける可能性は、かなり初期の段階に留まっている。そして、エネルギー効率を最大限に改善するという、現時点のストラテジーが広まった後にも、データセンターは増加し続けるだろう。理解すべきは、このようなシナリオが、将来を見据える上で、きわめて重要な方向性を示していることだ。それにより、データセンターにおけるコストが削減され、また、環境への影響を最小限に抑えられるという、次世代データセンターへの移行が実現される」と指摘している
On Monday文中に示される、2020年までのデータセンター電力消費量ですが、年間で 4% の伸びというのは、随分と抑えられた値のように思えます。そして、参照元である LBNL のポストを見ると、2010年〜2020年のサーバー台数増加数は 40% だと予測されています。こちらが、10年間でのハードウェア数の推移だとすると、それも少ない値となります。つまり、物理サーバーの台数が抑制され、しかも、個々の物理サーバーの処理能力および、低電力化が大幅に向上していることが、このレポートの背景にあるのだと思えます。これも、クラウド化による恩恵なのですが、もっと、もっと、スマートなデータセンターが増えてくると良いですね。_AC Stamp
Cloud の調査: 2016年 Q1 のパブリック・クラウドは、記録破りの成長を達成したようだ!
IoT の調査: 製造業が期待する IIoT と、その市場規模について
Shadow IT の調査: シャドウ IT アプリが、この2年間で 30倍にも増大している
Serverless Architecture の調査: 利便性においてクラウドがオープンソースを上回る?
Data Security の調査: 政府が要求する情報開示と、暗号化の関係とは?

Comments Off on Cloud の調査:データセンターの電力消費量は、どのように推移していくのか?

アジアのデータセンター間ネットワークは、IoT の時代に耐えうるのか?

Posted in Asia, Data Center Trends, IoT, Network by on June 30, 2016
Are Asia’s data center networks ready for the IoT avalanche?
Karl Horne, CTO Asia Pacific, Ciena – May 4, 2016
Asia Pacific is set to become the frontline for the Internet of Things (IoT). The number of things connected is expected to grow from 3.1 billion to 8.6 billion by 2020, according to IDC.
Asia Pacific は、Internet of Things (IoT) の最前線に立つはずである。IDC によると、接続されるモノの数は、現在の 31億から、2020年には 86億に増大すると予想される。
AsiaImage – Wikipedia
Momentum is building fast, thanks to a combination of both enterprise and government investment. For example, a few months ago, Singapore became one of the world’s first cities to join a two-year standardization project by the ITU. The project will scope the diverse needs of smart sustainable cities in areas such as the management of electromagnetic fields, smart water management, climate change mitigation and adaptation, intelligent buildings, open data, cybersecurity and data protection. Private enterprise will be the other major IoT driver in Asia, with the manufacturing, healthcare and logistics sectors expected to be early adopters.
企業と政府による投資が順調に進んでいることで、この地域で IoT を構築していく動きは素早い。Singapore を例にすると、ITU による 2年間の標準化プロジェクトに、数カ月前に参加することを決めているが、それは世界をリードする展開でもある。このプロジェクトは、スマートな都市を持続していくためのニーズを、いくつかの領域において明確にしていくものだ。それらは、電磁場や水質の管理から、気候変動の緩和や適応に始まり、インテリジェント・ビル/オープン・データ/サイバー・セキュリティ/データの保護・管理にまで至る。その一方で、Asia の IoT を推進するのは民間企業であり、製造/医療/物流などの分野が、アーリー・アダプターになると期待されている。
The data center network can make or break an IoT deployment
It is recognized that IoT will generate huge amounts of data, whose storage, analysis and transport will have a significant impact on its success. On the surface, it appears that steps are already being taken with numerous new data centers being built across Asia. However, the power of a data center is dependent on the network that interconnects it with other data centers as well as end devices. Sufficient levels of bandwidth must be made available to send data from the “thing” to the data center, as well as between distributed data centers due to distributed computing and storage architectures, to accomplish meaningful analysis.
IoT は大量のデータを生成するため、その保存/分析/転送の実現方式に、大きな影響を与えると認識されている。表面上は、Asia に構築されている新しいデータセンター群を用いて、その運用が始まっているかのように見える。しかし、データセンターのパワーが依存するのは、他のデータセンターおよびエンド・デバイスと相互接続するネットワークである。モノからデータセンターへ向けて、データを送信するためは、十分な帯域幅が必要となる。それと同様に、分散されたコンピューティング/ストレージのアーキテクチャで構成される、分散されたデータセンター間で、意味のある分析を達成しなければならない。
Asia’s data centers need the right interconnectivity to cope with these growing workloads but they are far from ready. In fact, a recent Ciena-IDC survey revealed that in Singapore and Korea, which have the fastest data centers in the region, only 40% of data centers had network connections faster than the minimum IoT requirements of 1Gbps, while in Thailand and China the figure is one in three.
Asia のデータセンター群は、成長していくワークロードに対応するために、適切な相互接続性を必要とするが、その準備が整っているとは言えない。最近の Ciena-IDC の調査では、Asia において最速のデータセンターを持っているのは、Singapore と Korea であることが明らかになった。しかし、IoT の最低要件となる 1Gbps のネットワーク接続を持っている Asia のデータセンターは 40% に過ぎず、Thailand と China にいたっては、1/3 程度となっている。
Life or death applications need high-speed, low-latency data center interconnect
For IoT applications like automated driving and logistics, huge amounts of sensor data are constantly being sent, received and analyzed by systems in the vehicle and data center. Once driverless cars become practical – which could be as soon as 2020 -data center networks will need to transmit in near real-time to manage traffic flow and prevent collisions. Advances in coherent optics have paved the way to successfully transmit data at rates of 100G and much higher, over almost any distance, dramatically improving data center network performance.
自動運転や物流などの IoT アプリケーションでは、膨大な量のセンサデーターが送信され、それを受信するデータセンターからは、分析済のデータが返信されていく。2020年と予測される自律走行車が実用化されると、交通の流れを管理し、衝突を防止するために、データセンター・ネットワークの送受信は、ほぼリアルタイムというレベルが要求される。コヒレント光学系の進歩は、ほぼすべての伝送路で 100G 以上のデータ転送レートを確立し、データセンター・ネットワークの性能を、劇的に向上させることに成功している。
Healthcare, another important driver for IoT in Asia, has similarly mission-critical network needs. A patient whose vital signs are being constantly monitored by remote hospital staff could end up in a life-threatening situation if information cannot travel across the network in a reliable and timely manner. Situations like this show why highly reliable and low-latency networks optimized for IoT traffic will be necessary to interconnect Asia’s data centers.
Asia の IoT において、もう一つの重要な推進力はヘルスケアであるが、こちらの場合も、ネットワークに対する、ミッション・クリティカルなニーズがある。もし、ネットワーク上の情報が信頼性に乏しく、また、定められた時間内に移動できないようなら、遠隔地の病院スタッフがモニタリングするバイタル・サインにより、患者は生命が脅かされる状況にもなり得る。Asia のデータセンターを相互接続する、IoTトラフィックに最適化された、高信頼性で低遅延のネットワークが必要なことを、このような事例が示している。
Critical infrastructure systems need carrier class service assurance
A high degree of network and service assurance is needed to connect data centers running critical government infrastructure systems, like smart grids and emergency alert systems. A carrier-class network will help eliminate the network connectivity concerns of data center operators and ensure mission-critical traffic can be successfully transported in alignment with application requirements.
IoT data security must protect data at rest as well as in flight
One of the most significant concerns that enterprises have about IoT is assurance of data security. With a tremendous amount of highly sensitive and personal data being interchanged every day, IoT can present a number of security risks that could be exploited to harm both businesses and consumers. This information might include financial transactions, personal records, and corporate data that is often business critical and confidential, creating a requirement to ensure network connections are trusted, reliable, and secure – often requiring an added level of encryption.
エンタープライズがIoTについて持っている、最も重要な問題にデータ・セキュリティの確保がある。IoT では、きわめてセンシティブで膨大なデータが、毎日のようにやり取りされる。したがって、それらが悪用されると、企業と消費者の双方に両方に損害をもたらす、セキュリティ・リスクのが増大することになる。それらの情報には、重要性と機密性の高い、金融取引/個人情報/企業データなどが含まれる場合があるため、信頼性/安全性が約束されたネットワーク接続が必須であり、また、 多くのケースで暗号化も追加されるだろう。
While encryption and stringent rules for access to stored data are widely employed to protect against intrusions, advances in networking equipment can also deliver low latency, in-flight data encryption. This provides increased protection for data from the moment it leaves one data center to the moment it reaches its destination.
In short, existing data center networks could become a bottleneck to IoT and face a number of interconnect challenges, such as latency, service assurance and security. Fortunately, the latest data center interconnect (DCI) solutions can effectively address these issues. With IoT presenting a tremendous growth opportunity for industry in Asia in the near term, enterprises and data center operators should ensure that their DCI systems are robust enough to handle the data avalanche that will follow.
要するに、既存のデータセンター・ネットワークは、レイテンシの問題やサービス/セキュリティの保証などにおいて、IoT のボトルネックとなる可能性がある。幸いなことに、最新の DCI (Data Center Interconnect) ソリューションは、これらの問題に対して効果的に対処することができる。IoT は短期間のうちに、Asia の産業に対して驚異的な成長の機会を提示する。そして、エンタープライズやデータセンター事業者は、雪崩のように押し寄せるデータの流れを制御するための、十分に強固な DCI システムを確かなものにしなければならない。
asia-pacific 2訳してみて気になったのが、日本が入っているのかどうかという点でした。いくつかの調査では、Asia Exept-Japan という地理的範囲が用いられる場合もあるので、文中のリンク先も調べましたが、そのような記述はありませんでした。それぞれの国における相対的な比較なので、主要なデータセンターが 1Gbps 以上をサポートしても、データセンターの数が多ければ、その比率が下がるということもあり得るはずです。また、少し視点が異なりますが、「クラウド 洗練度の比較: アジアの No.1 に香港が昇格し、日本は5位に転落」における、Broadband Quality の項目も興味深いです。この月曜日にポストした、「Internet Speed の調査: ワイヤレスやメタルを使って、1G 接続を達成するプロダクトが安価に提供される時代!」という抄訳は、ISP が提供するネットワークを高速化していくテクノロジーが紹介されていましたが、ネットワーク全体のグレードが、IoT をキッカケにして底上げされていきそうですね。_AC Stamp
Microsoft と Facebook が、大西洋に 160Tbps の海底ケーブルを敷設する!
南太平洋の海底ケーブルが着々と強化されている:年末までに 20TB のキャパシティを追加
2015 Infrastructures: アジアのインフラ投資が、グローバルな潮流を生み出す
激変のインターネット人口動態: インドが4億人に達し、二位のアメリカを追い抜く!
NTT Com の海底ケーブルが 1 Tbps 超えに! 北米/東南アジアとの距離が削られていく!

Comments Off on アジアのデータセンター間ネットワークは、IoT の時代に耐えうるのか?

IoT は、分散コンピューティングへの揺り戻し? そして Fog は?

Posted in .Selected, Amazon, Businesses, Cisco, Facebook, Google, IBM, IoT, Research, Salesforce by on May 19, 2016
There’s a new thing called ‘fog computing’ and no, we’re not joking
Julie Bort – Mar 3. 2016
_ Business Insider
By now, you’ve probably heard of cloud computing.
That’s where companies rent shared software, computers, and storage instead of buying and installing it all themselves. They pay for their usage via subscriptions, accessing it over the internet.
Cloud computing is all the rage right now, on track to be a $10 billion business for Amazon in 2016; Microsoft hopes it will become a $20 billion business by 2018, and Google thinks it will become bigger than its internet ad business by 2020.
クラウド・コンピューティングは、いまのトレンドであり、2016年の Amazon は、$10 billion ビジネスの起動にのせている。また、Microsoft は 2018年までに、$20 billion ビジネスへの進展を期待し、Google は 2020年までに同社のアド事業とクラウド事業が逆転すると考えている。
So what comes after the cloud? If you ask Cisco, it’s something called “fog computing.”
それでは、クラウドの後には、何が来るのだろう? そんな質問を Cisco に投げれば、フォグ・コンピューティングという答えが返ってくるはずだ。
Last month, Cisco was joined by other industry leaders including Intel, Microsoft, ARM, Dell, and Microsoft to back a new “fog computing” consortium, the OpenFog initiative. It sounds like something straight from a Saturday Night Live parody skit, but it’s not.
この 4月のことだが、Cisco は Intel/ARM/Dell/Microsoft といった業界のリーダーたちと共に、フォグ・コンピューティングを支援するコンソーシアムである、OpenFog イニシアチブを立ち上げた。まるで、Saturday Night Live パロディス寸劇のように聞こえるが、決してそのようなものでは無い。
Later this month, the consortium is holding a conference at Princeton University. Princeton is leading the research into fog computing.
また、同月の後半に、このコンソーシアムは Princeton University でカンファレンスを開催している。ちなみに、Princeton はフォグ・コンピューティングの研究における第一人者なのである。
Why Cisco wants this
So what exactly is it? To understand fog computing, you first have to understand cloud computing. In cloud computing, everyone shares the same massive data centers. You run an app on your phone in your home town, but the back-end computers may be in Virginia, or California, or Ireland, etc.
それを正確に表現するには、どのようにしたら良いのだろう? フォグ・コンピューティングを理解するには、先にクラウド・コンピューティングを理解する必要がある。クラウド・コンピューティングにおいては、誰もが大規模データセンターを共有している。あなたが自宅で、自分のスマフォからアプリを走らせるにしても、そのためのバック・エンド・コンピュータは、Virginia や California にあっても良く、さらに言うなら Ireland にあっても構わないのだ。
But with fog computing, computers and storage are scattered all over, perhaps placed closer to the app’s users. The network is smart enough to know where the data is stored.
With the network as the star, you can see why Cisco is championing this idea. It means selling a lot more high-end, very profitable network equipment to connect a lot more computers and data centers.
この星図のようなネットワークを想像すれば、このアイデアを Cisco が支持する理由が見えてくる。つまり、大量のコンピュータとデータセンターを接続するための、きわめて有益なハイエンド・ネットワーク機器を、大量に販売できるのである。
Cisco has been largely left out of the cloud computing revolution.
正直なところ、いまの Cisco は、クラウド・コンピューティングの革命から、かなり取り残されている。
As its customers move to the cloud, they need to buy less networking equipment. Meanwhile, some of the biggest cloud operators, like Facebook and Microsoft, have invented their own, new low-cost network equipment.
同社の顧客がクラウドへと移行するにつれて、ネットワーク機器を販売する機会が減っている。その一方で、Facebook や Microsoft といった大手クラウド事業者は、低コストのネットワーク装置を、自ら考案/開発している。
As for the rest of the traditional IT players (Intel, Dell, Microsoft, ARM), if “fog computing” takes off they stand to gain, too. Lots of computers scattered everywhere means selling lots of computer servers and operating systems and chips.
また、従来からのITプレイヤー (Intel/Dell/Microsoft/ARM) たちも、フォグ・コンピューティングが離陸するなら、この試みに賛同するだろう。つまり、大量のコンピュータが随所に散在するなら、大量のサーバー/OS/チップを販売できるのだ。
Will it take hold?
Just because it’s in Cisco’s self-interest to promote fog computing, doesn’t mean it won’t be a real thing someday.
ただし、それはフォグ・コンピューティングを推進する際の、Cisco 自身の利益を説明する話であり、いつまで待っても本物にならないという意味ではない。
Screen Shot 2016-05-19 at 5.49.07 AMWikipedia
The name “fog” is new, but the general concept isn’t. It used to be called “distributed computing.”
Years ago, the now defunct company called Sun Microsystems even had a slogan “the network is the computer.” (Oracle bought Sun in 2010.)
今はなき Sun Microsystems (Oracle が 2010年に買収) が、いわゆる「ネットワークがコンピュータである」を、昔からスローガンにしていたことを思い出して欲しい。
When you talk to anyone in the cloud computing industry today, they’ll tell you that cloud is young and here to stay (and it is). Some believe it will stretch out in a linear line, growing endlessly bigger and more glorious over time.
But that’s not how the computer industry typically works. It’s more like a spiral.
The computing industry breathes in and out between centralized and distributed computing models: centralized (mainframes) turned into distributed (PCs and local computer servers, known as “client/server”), and have now become centralized again (cloud computing). So, next up would be distributed.
コンピューティングの業界は、集中と分散という、2つのコンピューティング・モデルの間で息継ぎをしてきた。まず、集中型 (メインフレーム) から、分散型 (PC とローカル・サーバーによる Client/Server) への移行があり、いまは集中型 (クラウド・コンピューティング) と戻っている。したがって、次は分散型へ揺り戻されるはずだ。
It does this because each model solves the problem created by the last model. Centralized computing allows you to maintain control and efficiently share computers, which lowers cost. But it can create bottlenecks as all apps rush to share the same computers. And it’s expensive to keep building more and bigger data centers.
Decentralized allows you to run apps closer to the people using the apps so the apps perform better.
This could becomes very important as billions of devices join the internet as part of the “Internet of Things.” It can also be cheaper to shove a few computer servers in a room instead of building a big data center. But distributed computing can also create sprawl, get messy, and ultimately cost more.
Internet of Things の一部として、無数のデバイスがインターネットに参加するとき、このような考え方がきわめて重要になる。また、大規模データセンターを構築するのではなく、適切な場所に少数のコンピュータ・サーバーを配置することになるため、コストも安価になっていく。しかし、分散コンピューティングは、不規則で乱雑なものになるため、最終的にはコストを押し上げていく。
So fog computing could very well be the next thing.
Then again, there’s a rise of new technologies, like quantum computing, that could change everything and squash any tech based on the old ways to do things, including fog computing.
A horrible name
Whether fog thrives or dies, we can’t help point out the karmic implications in the name. “Fog computing” might be a cute play on the term “cloud computing”, but it also means: unclear, confusing, and fuzzy.
SEE ALSO: Microsoft just joined Facebook and fired a huge shot at Cisco
SEE ALSO: Cisco cofounder explains why CEO pay today is nuts
IoTIoT を Fog を、集中と分散の観点から、そして業界内における経済の観点から分析していく、とても興味深い記事です。たしか、司馬遼太郎か陳舜臣だったと思いますが、中国は分散国家と中央集権国家の間を行き来してきたと、作品で説明していた記憶があります。その理由は、まさに、「一方のモデルがもたらした問題を、もう一方のモデルが解決する」からなのでしょう。そして、私たちの業界における経済ですが、IoT が注目を集め始めてからというもの、IT のリーチが格段に広がっていますよね。PC からスマフォの時代へとシフトしたことで、IT の裾野が大きく広がりましたが、今度は、コンシューマではなく産業へと広がっていくのでしょう。そんなことを、あれこれ考えていると、IoT と Fog は、ほんとうに面白いですね! _AC Stamp
IoT の推進には Fog コンピューティングが不可欠だ: その理由を考えてみよう!
IoT の調査: このテクノロジーにより、情報処理と運用管理が本格的に収束していく!
IoT の調査: センターからエッジへと、あらゆるものが移行していくアーキテクチャとは?
APAC のモバイル・データ通信:2020年までにグローバルの 45% を占有する!
IoT の調査: これからの2年間で IoT に不可欠な、10種類テクノロジーを列挙してみた

Comments Off on IoT は、分散コンピューティングへの揺り戻し? そして Fog は?

クラウド・ワークフローの Nintex が、日本の Azure DC に進出: アジアへ向けて 高品質サービスを提供していく!

Posted in .Selected, Asia, Data Center Trends, Microsoft by on March 16, 2016
Asia Pacific Cloud Adoption Grows Through Japan Datacenter From Nintex
Anthony S -March 11, 2016
Nintex, in cooperation with Microsoft, will deploy and operate its cloud-based services within the Microsoft Azure Japan datacenter to ensure greater reliability, security, scalability, and sustainability of its software for customers and partners doing business in Asia Pacific.
Microsoft パートナーである Nintex が、Microsoft Azure Japan データセンター内で、クラウド・ベースのサービスを展開/運用するようだ。その目的は、Asia Pacific で事業を推進しているカスタマーやパートナーたちに、高度な信頼性/安全性/持続性と、スケーラビリティを約束するためだという。
“Microsoft has invested $15 billion in its global datacenter infrastructure which it has managed for more than a quarter of a century,” said Nintex CEO John Burton.
Nintex の CEO である John Burton は、「Microsoft は、グローバル・データセンター・インフラに $15 bollion も投資し、また、これまでの 1/4 世紀以上にわたって、そのビジネスを管理してきた」と述べている。
“We’re pleased to be among the one billion customers who rely on the cloud-scale and 24x7x365 capabilities of Microsoft datacenters to get work done. We know our customers and partners doing business in Asia Pacific will appreciate the assurance of security and reliability of Nintex being located within the Microsoft Azure Japan datacenter.”
そして Burton は、「 Micsordoft ののデータセンターが提供する、クラウド・スケールと 24x7x365 の能力に、10億人以上の顧客が依存しているはずだ。それらの人々に囲まれ、日々の作業を達成していくことは、私たちにとって大きな喜びとなる。私たちの顧客が、Asia Pacific で事業を展開していることは、充分に認識している。彼らは、Microsoft Azure Japan データセンターに配置される Nintex が、信頼性と安全性を約束することに、かならず感謝するはずだ」と続けている。
Operating within the Microsoft Azure Japan Datacenter, the Secure & Reliable Infrastructure will improve bandwidth & enhance data protection for the market-leading workflow platform.
このマーケットをリードするワークフロー・プラットフォームが、Microsoft Azure Japan データセンターで運用されることで、信頼性と安全性を備えたインフラが、帯域幅を向上させ、また、データ保護を強化していく。
Nintex end users in Japan will benefit from greater uptime, enhanced data security and more bandwidth from the Microsoft datacenter which will help them more effectively respond, manage, and scale deployments of Nintex Workflow for Office 365, as well as migrate from Nintex Workflow for SharePoint to cloud or hybrid scenarios.
日本の Nintex エンド・ユーザーも、Microsoft データセンターが実現する素晴らしいアップタイムや、強化されたデータ・セキュリティ、そして高帯域幅といった恩恵を被る。それにより、Nintex Workflow for Office 365 の応答/管理/拡張の面において、さらなる効率化が達成されるだけではなく、Nintex Workflow for SharePoint のハイブリッドへの移行も促進されていく。
Nintex,, entered the Japanese market 2009. Since that time Nintex has worked with its sales channel, including partners like SoftBank, Japan Business Systems, and InfoShare to help organizations design, implement, and scale business processes, workflows, and mobile applications easily, driving increased productivity gains, and broad-based revenue growth.
Nintex(が日本市場に参入したのは、2009年のことである。そのときから、同社は販売チャネルを開拓し、SoftBank/Japan Business Systems/InfoShare などを含む、数多くのパートナーと協力してきた。それにより、組織のデザインを刷新するための、ビジネス・プロセスの運用や拡張、そして、ワークフローとモバイル・アプリの促進を支援してきた。結果として、エンド・ユーザーの生産性の向上させ、ブロードバンド・ベースの収益を成長させることに、同社は成功した。
“Nintex is committed to helping our customers successfully do business in the cloud,” said Nintex VP APAC Sales, Brian Walshe.
Nintex の VP APAC Sales である Brian Walshe は、「Nintex は顧客に対して、そのクラウド・ビジネスの成功させるための、支援を惜しまないと約束する」と述べている。
“Operating Nintex technology within the Microsoft Azure Japan datacenter will help businesses simply and securely harness the power of workflow, mobile apps, and forms to expedite digital transformations of Japanese workplaces.”
「Microsoft Azure Japan データセンターで、Nintex テクノロジーを運用することで、ワークフローのパワーとモバイル・アプリを、簡単かつ安全に結びつけていく。それにより、日本企業におけるワークスペースの、デジタル・トランスフォーメーションを促進していく」と付け加えている。
asia-pacific 2日本のデータセンターから、アジアの市場へ向けて、高品質なサービスを提供する。とても、良い響きです! これまでの3年にわたり、アジアのマーケットに注目してきた Agile Cat としては、そのような戦略を明らかにしてくれる Nintex に、ほんとうに有難うと、お礼を言いたい気分です。 いまのアジア市場には、湯水のごとく資金が注ぎ込まれ、あちらこちらで海底ケーブが拡張されているという状況です。 つまり、アジアとの距離が、日に日に近くなってきているのです。 今回はアメリカ発のクラウド・データセンター・モデルですが、もっと、もっと、日本のクラウドがアジアで使われて欲しいと願っています。 _AC Stamp
Microsoft Graph とは、人間に寄り添ってくれる、とても優しいテクノロジーのことなのだ!
Microsoft Office 365 対 Google Apps for Work: 大手企業におけるシェアの差に唖然!
Salesforce パートナーが懸念する、AWS 上の CRM ソリューションの台頭とは?
世界のクラウド・トラフィックを 2014〜2019 で分析/予測:その結果を1枚のチャートで!
東南アジア の モバイル通信料:どれだけ働けば、1GB が買えるのか?

Comments Off on クラウド・ワークフローの Nintex が、日本の Azure DC に進出: アジアへ向けて 高品質サービスを提供していく!

Microsoft から OCP へのコントリビューション:それが Sonic Linux Networking Suite だ!

Posted in .Selected, Data Center Trends, Facebook, Google, Microsoft, Open Compute by on March 11, 2016
Microsoft Contributes Its Sonic Linux Networking Suite to Open Compute Project
Manish Singh – March 10, 2016
Screen Shot 2016-03-11 at 4.42.36 AM
Microsoft is taking a major step in the world of free, open-source software. The Windows maker has announced that it is giving away Sonic, its own designed software, to users for free.
Microsoft は、オープンソース・ソフトウェアという自由な世界で、大きな一歩を踏み出した。この Windows メーカーは、独自にデザインしたソフトウェア Sonic を、ユーザーに対して無償で配布するとアナウンスしたのだ。
microsoft_linux_nadella_officialAt the Open Compute Project US Summit, Microsoft announced that it is proposing to contribute Software for Open Networking in the Cloud (Sonic) to the project. The suite in question is utilised to control networking hardware, which typically run on programs mandated by their respective vendor. Microsoft has published the open-source project on its GitHub repository.
いま開催中の Open Compute Project US Summit において、Microsoft が発表したのは、このプロジェクトに対して、Software for Open Networking in the Cloud (Sonic) をコントリビュートするという提案である。一般には、それぞれのベンダーが義務付けるプログラムを用いて、ネットワーク・ハードウェアが制御されるわけだが、その方式を変更することが、ここでの論点となる。すでに Microsoft は、GitHubの リポジトリ上で、このオープンソース・プロジェクトを発表している。
Sonic, which runs on the Debian Linux distribution, can be deemed as a free alternative for many of Cisco‘s networking suites. “Sonic is a collection of software networking components required to build network devices like switches,” Microsoft wrote in a blog post.
Sonic は、Debian の Linux ディストリビューション上で動作し、また、Cisco から提供される多様なネットワーク・スイートを、無償で置き換えるものとみなされる。Microsoft は、「 Sonic は、スイッチなどのネットワーク・デバイスを構築するために必要な、ソフトウェア・ネットワーク・コンポーネントのコレクションである」と、そのブログで述べている
“Together with SAI (Switch Abstraction Interface — which Microsoft contributed last year), Sonic will enable cloud operators to take advantage of hardware innovation, while giving them a framework to build upon open source code for applications on the network switch. We believe it’s the final piece of the puzzle in delivering a fully open sourced switch platform that can share the same software stack across hardware from multiple switch vendors.”
「 SAI (Switch Abstraction Interface — 昨年に Microsoft がコントリビュート) と組み合わせることで、クラウド事業者たちにおけるハードウェア・イノベーションを促進することが、Sonic の役割である。それと平行して、対象となるネットワーク・スイッチ上で動作する、オープンソース・コードで構築されたアプリケーションのための、フレームワークを提供するものとなる。完全にオープンソース化された、スイッチ・プラットフォームを提供していくパズルにおいて、この Sinic が最後のピースになると、私たちは確信している。そのプラットフォームとは、多様なスイッチ・ベンダーから提供されるハードウェアを、同じソフトウェア・スタックを用いて共有するものである」
Microsoft joined the Facebook-founded Open Compute Project in 2014 as a founding member. The initiative publishes new hardware designs to improve the performance and feasibility of data centre technologies. Microsoft’s growing effort towards contributing to open source technologies is one of the many major changes the company has adopted under the leadership of Satya Nadella.
Facebook が設立した Open Compute Project に、Microsoft が参加したのは、2014年のことである。このイニシアチブは、データセンター・テクノロジーにおける、性能と実現性を改善するための、新しいハードウェア・デザインを発行している。このオープンソース・テクノロジーに対して、Microsoft が注力しているコントリュビューションは、Satya Nadella のリーダーシップの下で取り入れられた、同社における重要な変革の一つである。
Microsoft is not the only company making major news at the summit. Search giant Google also announced this week that it is joining the Open Compute Project.
今回の Open Compute Project US Summit において、Microsoft 以外の企業からも、重大なニュースが提供されている。あのサーチ・ジャイアントである Google が、この Open Compute Project に参加すると発表したのだ。
open-compute昨年に Microsoft がコントリュビュートした SAI (Switch Abstraction Interface) も、今回の Sonic (Software for Open Networking in the Cloud) も、同社のデータセンターを運用するために利用されているのでしょう。 Microsoft のデータセンターでは、スイッチ・ベンダーが提供するソフトウェアは、ほとんど利用されてないのでしょうか? それとも、OCP にコントリビュートし、このコミュニティの力を借りることで、新たなデータセンター運用を実現したいと考えているのでしょうか? まぁ、いずれにしても、OCP への求心力は高まっているように思えます。 この NDTV ポスト以外にも、以下の記事が提供されています。_AC Stamp
Microsoft contributes to Facebook’s Open Compute Project; Cisco, are you watching?
Microsoft just joined Facebook and fired a huge shot at Cisco
Microsoft proposes SONiC contribution to Open Compute Project
Microsoft unveils software networking toolkit at OCP Summit as Google joins the party
Microsoft has released a Debian Linux switch OS. Repeat, a Debian Linux switch OS
Google が OCP に参加した! ハードウェア産業におけるゲーム・チェンジが加速していく!
OCP と テレコム: AT&T や Verizon などが、この新しいモデルに続々と参加してきた!
Quanta の コンバージド・インフラが登場:OpenStack および VMware と Microsoft に対応!
Facebook と Open Switch 市場: その具体的な戦略と、Cisco の反応
台湾からの情報: Quanta の VCE サーバーが、VxRack に独占的に搭載される?

Comments Off on Microsoft から OCP へのコントリビューション:それが Sonic Linux Networking Suite だ!

Google が OCP に参加した! ハードウェア産業におけるゲーム・チェンジが、さらに加速していく!

Posted in .Selected, Data Center Trends, Facebook, Google, Microsoft, Open Compute by on March 10, 2016
Google joins Facebook’s game-changing project that’s eating the $140 billion hardware market
Julie Bort –  March 9, 2016
_ Business Insider
If the hardware industry was nervous about Facebook’s game-changing Open Compute Project before, it should now be downright terrified now: Google is now finally on board.
これまでのハードウェア業界は、Facebook が仕掛けたゲーム・チェンジである、Open Compute Project に対してナーバスになっていたが、これからは恐怖として実感していくはずだ。なぜなら、あの Google が、ついにボード・メンバーとして参加したからだ。
OCP, the extraordinary project that started as a controversial idea inside Facebook about five years ago, is revolutionizing the computer hardware industry. Google’s news was announced as part of the OCP tech conference taking place in San Jose this week.
この OCP とは、Facebook 内部での議論から生じたアイデアとして、約5年前にスタートした途方も無いプロジェクトのことであり、また、コンピュータのハードウェア業界に革命をもたらしている。そして、この Google に関するニュースは、今週の San Jose で開催されている、OCP のテック・カンファレンスて発表されたものである。
Google DCGoogle
An engineer works on racks of computers inside a Google data center.
OCP is doing for hardware what Linux, Android, and many other popular products did for software: making it free and “open source.”
OCP は、Linux や Android の、ハードウェア版として位置づけされている。そして、多様なプロダクトを生み出した、それらのソフトウェアのように、ハードウェアのオープンソースを無償で提供するものとなっている。
Anyone can take OCP’s hardware designs, change them, and contribute to them, with contract manufacturers standing by to build those pieces.
誰もが、OCP ハードウェアのデザインを取得し、変更し、また、コントリビュートすることができる。 それにより、さまざまなパーツの構築が促進され、OCP と契約を交わしているマニュファクチャが、支援されるという流れが生じる。
Creativity is flowing through OCP, where engineers can freely collaborate without worry about protecting their secrets. The project’s participants are  inventing new ways to build computer servers, storage, and networks that are faster and cheaper to use than the commercial counterparts from companies like HP, Dell, IBM and Cisco.
つまり、エンジニアたちは秘密の保護に気遣うことなく協調し、そのクリエイティビティが OCP を通じて循環していくことになる。具体的に言うと、このプロジェクトへの参加者たちは、コンピュータ/サーバ/ストレージ/ネットワーク機器を構築するための、新しい方法を発明してくことになる。そして、それらは、HP/Dell/IBM/Cisco といった企業が提供する商用プロダクトよりも、迅速かつ安価で利用できるものとなっていく。
In fact, HP and Dell are already on board with OCP, creating lines of servers that comply with OCP standards. HP has also agreed to become a contract manufacturer.
実際のところ、HP と Dell は、OCP 規格に準拠したサーバー・ラインを構築するために、すでに OCP のボード・メンバーになっている。そして HP も、OCP と契約し、そのマニュファクチャになることに合意した。
But Google had been conspicuously absent from OCP, even as other big companies that run huge data centers, from Microsoft to Goldman Sachs, joined and voiced their support. Like Facebook, Google designs and builds its own hardware for its own data centers.
しかし、Microsoft から Goldman Sachs にいたる、巨大データセンターを運用する大手企業たちが OCP に参加し、支持を表明しているのに対して、Google の不参加が目を引いていたことも確かであった。さらに言うなら、Facebook と同様に、Google も独自のデータセンターを運用するために、独自のハードウェアを設計/構築しているのだ。
Even last year, Google’s legendary data center engineer, Urs Hölzle, offered a begrudging respect for the OCP project while simultaneously pooh-poohing its importance.
昨年のことだが、Google における伝説のデータセンター・エンジニアである Urs Hölzle は、OCP プロジェクトに敬意を評したがらず、また、その重要性に異を唱えていた。
His take was that open source hardware was a nice idea, but the project’s designs so far were a “bit basic” and its impact would be minimal because most businesses will be using cloud computing from Google and others, instead of buying their own hardware, he told Business Insider.
彼が Business Insider に語ったところによると、オープンソース・ハードウェアは良いアイデアであるが、このプロジェクトにおけるデザインは基本を定義するものであり、また、その影響力はきわめて小さいとのことであった。その理由として、大半の企業は、独自のハードウェアを購入する代わりに、Google などのクラウド・コンピューティングを使用するからだと、彼は付け加えていた。
He’s got a point about how companies are using clouds instead of buying computers. But that’s why OCP has been such a big deal. Cloud players aren’t buying that stuff from the classic commercial players either. They are building their own with OCP.
企業はコンピュータを購入するのではなく、クラウドを使用するのだという点が、彼の指摘である。しかし、それこそが、OCP が注目される理由でもあるのだ。つまり、クラウド・プレーヤーたちは、従来からの商用プロダクトを購入しようとしないのだ。彼らは、OCP を用いて、独自の環境を構築しているのだ。
Like all open source projects, OCP is a give-and-take idea. You take and use all the designs, but ideally, you will also contribute to them.
すべてのオープンソース・プロジェクトと同様に、OCP は Give and Take という考え方を持っている。あなたは、すべてのデザインを採用/利用できるが、理想的には、あなたもコントリビュートすべきである。
So for Google’s first contribution, it’s offering designs for building greener, more energy-efficient computer racks. Data center racks are designed to hold and power many computer servers.
そして、Google からの最初のコントリビューションであるが、エネルギー効率の高いコンピュータ・ラックであり、環境に優しいデータセンターの設計/構築を促進するものとなる。データセンターのラックとは、大量のサーバーを保持し、また、電力を供給するためのものだ。
And there’s more where that came from. Google wants to work with the OCP community to share designs for its computer storage disks, greener computer servers, and better network management tools.
しかし、Google からのコントリュビューションは、それだけではない。Google は、OCP コミュニティでの活動を希望しているが、その目的はというと、同社におけるコンピュータ・ストレージ・ディスク/コンピュータ・サーバ/ネットワーク・マネージメント・ツールの、デザインの共有だとされている。
“Today’s launch is a first step in a larger effort. We think there are other areas of possible collaboration with OCP,” wrote John Zipfel, Technical Program Manager for Google in a blog post. “We look forward to new and exciting advancements to come with the OCP community.”
Google の Technical Program Manager である John Zipfel は、「今日の立ちあげは、これからの大きな取り組みにおける、最初のステップである。 私たちは、OCPとのコラボレーションを進めることで、さらに大きな領域を見つけ出せると考えている。私たちは、OCP コミュニティに参加することで、これまでに以上の先進性が得られることを、とても楽しみにしている」と、同社のブログ・ポストで述べている
SEE ALSO: How Facebook is eating the $140 billion hardware market
Screen Shot 2016-03-10 at 5.19.14 PMopen-compute素晴らしい! Open Compute Project が始まって5年が経とうとしていますが、あの Google が参加することになるとは、その当時は思ってもいませんでした。 文中にもありますが、Urs Hölzle がブレーキを踏んでいたのでしょうね。 それが、Sundar Pichai 体制になったことで、Google にも変化が生じてきたのだと思います。 これも、とても良いことです! 次に参加してくるのは、どこなのでしょうか? 2011年 10月の、OCP NY Summit では、James Hamillton さんが、キーノート・スピーカーだったなぁ。。。  今年は行けなかった、OCP Summit ですが、来年は行きたいですwww _AC Stamp
OCP と テレコム: AT&T や Verizon などが、この新しいモデルに続々と参加してきた!
Quanta の コンバージド・インフラが登場:OpenStack および VMware と Microsoft に対応!
Facebook と Open Switch 市場: その具体的な戦略と、Cisco の反応
台湾からの情報: Quanta の VCE サーバーが、VxRack に独占的に搭載される?
中国の巨大クラウドを支える、Scorpio の Ver 3.0 が年末に発表される?

Comments Off on Google が OCP に参加した! ハードウェア産業におけるゲーム・チェンジが、さらに加速していく!

Facebook のデータセンターが、台湾に構築されるという ウワサが出てきた!

Posted in .Selected, Asia, Data Center Trends, Facebook by on December 3, 2015
Facebook plans to open first Asia-Pacific data centre in Taiwan
Reuters – Dec 2, 2015
_ Times of India
TAIPEI: Facebook Inc is evaluating the possibility of investing T$10 billion ($300 million) to build its first data centre in the Asia-Pacific region in Taiwan, joining Google, an official said.
TAIPEI: Facebook だが、APAC 地域における最初のデータセンターを、Google に続いて Taiwan に構築するという話が出てきた。 同社は、そのために、T$10 billion ($300 million)  の投資を検討していると、ある関係者が述べている。
FB DCThe centre would require 6 acres (2.43 hectares) of land, with the possibility to expand to 20 acres in the future, according to Magistrate Wei Ming-ku of Changhua County in central Taiwan.
Taiwan 中部の Changhua County の行政官である Wei Ming-ku によると、そのデータセンターは 6 acres (2.43 hectares) の土地を必要とし、 将来的には 20 acres にまで拡大する可能性があるという。
“We’ve made all-out efforts to ensure sufficient supply of water and electricity … We hope they will come,” Wei said.
Wei は、「 Facebook が必要とする水と電力について、十分な供給量を確保するために、可能な限り努力をしてきた。 私たちは、彼らが来ることを願っている」と述べている。
Google has built a datacentre in Changhua County, partly in hopes of tapping fast-growing Asian markets.
すでに Google は、Changhua County にデータセンターを構築しており、急速に成長する Asia マーケットの一部を補おうとしている。
TaiwanClick to Google Maps >>>
Facebook, the world’s largest online social media network, said no decision had been made.
ただし、世界で最大のオンライン・ソーシャル・メディア・ネットワークである Facebook は、現時点では何も決定されていないと述べている。
“As a global company working to connect billions of people around the world, we are always evaluating potential sites for new data centres, but we don’t have anything to announce at this time,” a Facebook spokeswoman said in an email.
Facebook のスポークスマンは、「 世界中の数十億人の人々と、グローバル企業がコネクトしようとするように、私たちも常に、新しいデータセンターの可能性について評価している。 しかし、いまの時点において、発表するものは何もない」と、電子メールで説明している。
It would be Facebook’s first data centre in Asia, following four others in the United States and one in Sweden, Taiwanese media reported.
Facebook は、United States に 4ヶ所と、Sweden に1ヶ所のデータセンターを有しているが、それらに続いて、Asia で最初のデータセンターが、Taiwan に来る可能性があると、同国のメディアが報じている。
datacenter_55ほんとうは、日本に来てほしいのですが、Google と同じように、台湾に行ってしまうのでしょうかね? 土地と電力の供給を、行政がサポートしていくことが、このようなメガ・データセンターの誘致につながるのでしょう。 台中の Wei Ming-ku さんが、必死になって駆けずり回っている姿が目に浮かびます。 それと、文中では水の供給についても触れられていますが、台湾の気候に合わせたミスト冷却方式を、考えているのかもしれません。 でも、やはり、日本に来てほしいです。。。 _AC Stamp
詳細な解説つきの Facebook Oregon DC フォト・ツアー
Facebook の、次の巨大データセンターが North Carolina に!
Facebook Oregon データセンターを、10分間の詳細ビデオで ど~ぞ!
Facebook の爆発的な成長と、それを支えるデータセンター戦略
Facebook が北欧に建設している、冷気と水力をフル活用の DC とは?
OCP データセンターと、高温多湿気候との関係について

Comments Off on Facebook のデータセンターが、台湾に構築されるという ウワサが出てきた!

ギガ 蓄電池 のマーケット: 2015年の 0.2GW から 2025年の 12.7GW へと、グローバル容量が急成長する!

Posted in Data Center Trends, Energy, Green IT, Strategy by on October 23, 2015
Global new installed energy storage systems for renewable energy integration power capacity expected to reach 12.7GW in 2025, says firm
Alex Wolfgram – October 16, 2015
_ Digi Times
Variable renewable energy, or renewable energy sources that are non-dispatchable due to a fluctuating nature, like wind power and solar photovoltaics (PV), continues to proliferate, creating challenges to the electrical grid, which was designed using a centralized model with predictable power flows.
Wind FirmWikipedia
As these challenges increase, so does the market for energy storage systems (ESSs) designed specifically to facilitate the integration of renewable energy generation. According to a new report from Navigant Research, new installed energy storage systems for renewable energy integration (ESRI) power capacity is expected to grow from 196.2MW in 2015 to 12.7GW in 2025.
しかし、こうした施策が課題を増やすにつれて、既存の送電網に対して再生可能エネルギーを容易に統合するための、新たにデザインされた ESS (Energy Storage Systems) の市場が活性化していく。 Navigant Research の最新レポートによると、再生可能エネルギー統合のために、新たにインストールされるエネルギー・ストレージ・システム ESRI (Energy Storage Systems for Renewable Energy Integration) の容量は、2015年の 196.2MW から 2025年の 12.7GW へと、大きく成長していくと予測される。
“It’s expected that the compensation schemes for variable generation will drive the market for ESRI, and markets with compensation structures that favor dispatchability and self-consumption of wind and solar electricity will lead the market,” said Anissa Dehamna, principal research analyst with Navigant Research. “With few exceptions, islands and isolated grids are expected to lead the market in near-term due to higher renewables penetration and little to no interconnections with neighboring grid systems to balance instability.”
Navigant Research の Chief Research Analyst である Anissa Dehamna は、「 再生可能エネルギーの変動幅を、補完するためのスキームが、ESRI 市場をドライブしていくと予測される。そして、こうした補完スキームが達成されることで、送電網への接続と現地での消費が具体化され、風力や太陽光による発電が、市場をリードすることになるだろう。さらに、いくつかの例外を挙げるなら、離島および孤立地域での送電網では、再生可能エネルギーの普及が早まり、近い将来において市場をリードすると期待される。そして、近隣の送電網との相互接続が不足している状況などにおいても、きわめて短期間で、適正なバランスを取り得るだろう」と述べている。
One of the primary drivers of the grid-tied ESS market is the decreasing cost of advanced batteries, according to the report. While system costs are still one of the biggest barriers to the industry’s growth, declining prices and a flood of new systems integrators are opening up new use cases and geographic markets.
ESS 市場と送電網をつないでいく、大きな推進力の1つとして、最先端蓄電池のコスト削減が挙げられると、このレポートは述べている。この産業が成長するためには、最大の障壁である費用対効果という課題をクリアしなければならないが、コストの低減とシステム・インテグレータの台頭により、新たなユース・ケースと、地域ごとのソリューションが、広く知れ渡るようになってきた。
greenit_55風が吹くなら、お日様が照るなら、それを使えば良いでしょうというのが、Agile Cat の個人的な感覚なのですが、風は止まるし、雨の日もあるので、まだまだ先の話だろうと思っていました。 でも、人の頭は使いよう、人類の叡智は無限ということが、なんとなく証明されつつありますね。 2014年 2月に「送電網の UPS として機能する次世代バッテリー・テクノロジー:HVDC との相性も良さそう!」という抄訳をポストしましたが、その後も順調に伸びているようで、とても安心しました。 人々の生活に欠かせない電力を、中央集権的にコントロールすると、どうしても第二の税になっていきます。 三国志の関羽も、水滸伝の盧俊義も、第二の税である「塩」と戦う義賊だったわけですが、いまの世の中、そんな物騒なことを考えなくても、蓄電池のテクノロジーを磨いていけば、電力は空気のようなものになると、このポストは伝えているのでしょう。 _AC Stamp
Green DC の調査:ビジネスでの優位性に加えて、環境への影響も考えるべき
Data Centers の調査 : データセンターの効率を多角的に考える
SoftBank と Bloom Energy が提携 : 最新の燃料電池が日本にやってくる!
Google が米東海岸の 6,000 メガワット風力に投資
Google が地熱エネルギーの金脈を掘り当てた!
OCP データセンターと、高温多湿気候との関係について

Comments Off on ギガ 蓄電池 のマーケット: 2015年の 0.2GW から 2025年の 12.7GW へと、グローバル容量が急成長する!

%d bloggers like this: