Agile Cat — in the cloud

100G ファイバーによる 都心ネットワークが急成長していく:それを示す1枚のチャート!

Posted in .Selected, Data Center Trends, Network, Research by agilecat.cloud on September 3, 2015
IHS Forecasts Huge Growth for 100 Gigabit Optical Ports as Operators Increase Network Capacity
Published: Aug 11, 2015
http://www.marketwatch.com/story/ihs-forecasts-huge-growth-for-100-gigabit-optical-ports-as-operators-increase-network-capacity-2015-08-11-16173756
 
__ Market Wired
 
CAMBRIDGE, MA, Aug 11, 2015 (Marketwired via COMTEX) — Coherent 100G port shipments for metro regional optical networks grew 145 percent in 2014 from the prior year, and are anticipated to grow another 118 percent in 2015, predicts IHS.
 
CAMBRIDGE, MA ー メトロ・リージョン向けのオプティカル・ネットワークにおける、Chherent 100G ポートの出荷台数が、2013年と2014年との比較で 145% の成長を遂げているが、2015年も引き続いて、118% の成長が予測されると IHS が述べている。
 
Fiber NetworksFlickr
NetMapper
 
“Adoption of 100G coherent technology has surged, first in long haul networks and now becoming a material part of metro networks. The expansion of 100G into new markets was the catalyst for our 100G+ coherent optical ports report, which provides an accurate, in-depth picture of how 100G technology is being used today and how it’ll be used in the future as the landscape grows increasingly complex,” said Andrew Schmitt, research director for carrier transport networking at IHS.
 
IHS の Research Director for Carrier Transport Networking である Andrew Schmitt は、「100G コヒレント・テクノロジーの採用だが、最初は長距離ネットワークから始まり、いまではメトロ・ネットワークの物理パートとして急増し始めている。新たなマーケットへ向けた 100G の拡大は、当社の 100G+ コヒレント・オプティカル・ポートを促進させるものであった。それにより、現時点で採用されている 100G テクノロジーに関する、詳細かつ正確な情報を提供できるようになった。そして、将来におけるネットワークの成長が、いま以上に複雑になるにつれて、どのように 100G が利用されるのかを指し示す、レポートの提供が可能になった」と述べている。
 
“100G is poised to explode in 2016 as new equipment built specifically for the metro reaches the market, allowing 100G technology to economically reach new portions of the network such as metro edge and metro regional,” Schmitt said.
 
さらに Schmitt は、「メトロ・マーケットのための新たな機器が、2016年に市場に投入されるとき、100G テクノロジーは爆発的に飛躍するだろう。つまり、メトロ・エッジやメトロ・リージョンといった、ネットワークの新しいパートへ向けて、経済性を伴う 100G テクノロジーが到達することになる」と、付け加えている。
 
100G+ COHERENT OPTICAL PORT MARKET HIGHLIGHTS
 
2015-IHS-Infonetics-100G-Coherent-Optical
 
2014 was a banner year for 100G port shipments, led by massive purchases in China from China Mobile.
 
100G ポートの出荷が、2014年に大きく伸びたのは、中国マーケットで China Moble が大量に購入したからである。
 
Most of 100G coherent technology deployed in 2014 was for long haul applications, but metro regional (<600km) and metro access (<80km) applications will start ramping in 2016.
 
2014年にディプロイされた 100G コヒレント・テクノロジーの大半は、長距離ネットワークに応用されるものであったが、メトロ・リージョナル (<600km) とメトロ・アクセス (<80km) への適用が、2016年から始まっていくだろう。
 
100G market share is concentrated in a small circle of players: Alcatel-Lucent, Ciena, Huawei, Infinera and ZTE; the only potential catalyst for shifts will come from deployment in shorter reach metro and datacenter applications-the next growth vector for 100G.
 
現時点における 100G のマーケット・シェアは、Alcatel-Lucent/Ciena/Huawei/Infinera/ZTE といった、一定のプレーヤーに集中している。そこからのシフトを引き起こすための潜在的なニーズは、メトロやデータセンターへのリーチという短距離での応用であり、次の成長ベクトルを 100G に与えるものとなる。
 
Sometime in 2017-2018, 100G coherent will make another quantum jump, displacing 10G in the 80km or less metro-access market.
 
2017年〜2018年の何処かで、100G コヒレント・テクノロジーは、次の爆発的なジャンプを達成し、80km 以内のメトロ・アクセス市場で、これまでの 10G をリプレイスしていくだろう。
 
100G OPTICAL REPORT SYNOPSIS
 
The 20-page “IHS Infonetics 100G+ Coherent Optical Equipment Ports” market size, vendor market share and forecast report provides detailed granularity for 100G+ coherent and non-coherent port shipments on optical transport equipment, tracking the evolution of 100G as operators increase the flexibility and capacity of their networks. The report tracks 100G by application, including metro regional, metro access and long haul, as well as specific technology derivatives such as flex-coherent and direct-detect 100G. To purchase the report, please visit www.infonetics.com/contact.asp.
 
“IHS Infonetics 100G+ Coherent Optical Equipment Ports” は 20ページの構成となっており、マーケットの規模や、ベンダーごとのシェア、今後の予測などをレポートするものとなっている。そして、オプティカル通信機器マーケットにおける、コヒレントおよび非コヒレント 100G+ ポートの出荷について、詳細な情報を提供する。したがって、各種事業者たちが、自社ネットワークの柔軟性を高め、キャパシティを増大するときのための、100G に関するトラッキングが可能となる。このレポートは、メトロ・リージョンとメトロ・アクセスに加えて、長距離ネットワークにおける 100G 適用を追跡するものである。また、それに加えて、フレックス・コヒレントや Direct-Detect 100G といった、派生テクノロジーについてもレポートしている。このレポートを購入に際しては、www.infonetics.com/contact.asp にアクセスして欲しい。
 
ーーーーー
Network文中にもあるように、メトロ・リージョナル (<600km) とメトロ・アクセス (<80km) という近距離ネットワークへ、長距離海底ケーブルで培われたテクノロジーが適用されていくのですね! アジアの 100G 関連ニュースを並べてみても、ほとんどが長距離ネットワークに関するものですが、今後は様変わりしていくのでしょうね。 ネットワークに、どのような未来が訪れるのかと想像すると、とてもワクワクしてきます! _AC Stamp
 
Oct 2014 – AAG Upgrades Trans-Pacific Submarine Cable Network with Ciena
Oct 2014 – Pacnet Selects BTI Systems as Vendor of Choice for 100GE Metro 
Jan 2015 – Telstra to sell 100G service on subsea cables
Jan 2015 – Verizon Extends Its 100G Network in Asia-Pacific
Feb 2015 – Sydney to Perth at 100Gb/s
May 2015 – Telstra Extends Global PEN Platform into the Optical Layer
May 2015 – Alcatel-Lucent and Chuan Wei to set up 100G network in Cambodia
Jun 2015 – SLT enhances global connectivity options
ーーーーー
<関連>
Google の 60Tbps 太平洋海底ケーブルは、どのような未来を見せてくれるのか?
NTT が 専用線 クラウド接続を提供:ハイブリッド化は 促進されるのか?
香港の Global Cloud Xchange が、シンガポールとインドを海底ケーブルでつなぐ!
Google Cloud Platform の圧倒的なネットワーク能力: HTC がユーザー企業として賞賛!
Huawei が ジョホールバールに、独自の Cloud Exchange をオープンする!
HTTP/2 の調査: Web の速度を 10倍〜40倍にアップし、将来の暗号化を視野にいれる!
 

NTT が 専用線 クラウド接続を提供:ハイブリッド化は 促進されるのか?

Posted in Amazon, Asia, Hybrid, Microsoft, Network, Telecom by agilecat.cloud on August 28, 2015
NTT helps integrate private and public clouds with dedicated connectivity
Mikael Ricknäs – Aug 26, 2015
http://www.infoworld.com/article/2976189/cloud-computing/ntt-helps-integrate-private-and-public-clouds-with-dedicated-connectivity.html
 
_Info World
NTT Communications will provide its enterprise customers with direct private connectivity to Microsoft’s and Amazon Web Services’ public clouds through a new service, Multi-Cloud Connect.
 
NTT Communications だが、Multi-Cloud Connect という名称のダイレクト・プライベート接続をユーザー企業に提供することで、Microsoft や Amazon Web Services といったパブリック・クラウドの利用を促すことになる。
 
The more dependent enterprises become on public clouds, the more dependent they become on a network connection that doesn’t falter. Inconsistent Internet performance has become an impediment to widespread cloud adoption, according to NTT.
 
パブリック・クラウドに依存する企業は、より高精度なネットワーク接続に依存することになる。したがって、インターネットにおける不安定なパフォーマンスは、広範囲におよぶクラウドの適用にとって障害になり得ると、NTT は述べている。
 
NTT CloudNTT hopes to offer a better performing alternative with its Multi-Cloud Connect, which lets enterprises access public cloud services via its MPLS (Multi-protocol Label Switching) network.
 
NTT が提供したいと望んでいるのは、同社の Multi-Cloud Connect を用いた代案であり、MPLS (Multi-protocol Label Switching) ネットワークを介して、パブリック・クラウド・サービスへのアクセスを実現するものとなる。
 
The purported advantages include better reliability, faster speeds, lower latency and higher security. Enterprises can take advantage of that when building hybrid clouds where some applications or parts of applications run on-site and others in a public cloud. That could include a tiered storage architecture or a cloud-based disaster recovery solution.
 
そのアドバンテージには、信頼性/高速化/低遅延/高度なセキュリティなどが含まれるという。たとえば、特定のアプリケーションや、その一部をオン・サイトに配置し、その他をパブリック・クラウドに展開したいと考えるエンタープライズが、ハイブリッド・クラウドを構築する際などに、そのメリットを享受することになる。そして、そのようなクラウドは、階層型のストレージ・アーキテクチャや、クラウド・ベースの DR ソリューションを、容易に取り込めるようになる。
 
A dedicated connection to Microsoft Azure or Amazon EC2 (Elastic Compute Cloud) should also lower the bar for moving applications that depend on low latency to the cloud, such as virtual desktops.
 
また、Microsoft Azure や Amazon EC2 (Elastic Compute Cloud) と専用線で接続することで、対象となるクラウドは低遅延を約束されるものとなる。 したがって、たとえば仮想デスクトップなどのアプリケーションを移動させる際のロスも、低減されるはずである。
 
Multi-Cloud Connect became available in Tokyo on Wednesday, and will be expanded to London in December, followed by the U.S. and other parts of Asia.
 
この水曜日(8/26)に、Tokyo で Multi-Cloud Connect の提供が開始された。そして、12月には、London でサービス・インとなり、その後に US および Asia での運用が開始されるという。
 
Speeds from 10Mbps to 1Gbps are available when connecting to Microsoft and 50Mbps to 500Mbps to Amazon. NTT didn’t announce any pricing.
 
そして、前述のパブリック・クラウドとの接続スピードだが、Microsoft と接続するときは 10Mbps 〜 1Gbps が、Amazon との場合は 50Mbps 〜 500Mbps が提供されるという。 ただし、NTT は、それらの料金についてはアナウンスしていない。
 
NTT is far from the only company offering dedicated connectivity for public clouds. Amazon has partnered with service providers all over the world on AWS Direct Connect and Microsoft offers ExpressRoute. But the NTT launch highlights how the cloud market is maturing step by step to provide buyers with more choice and flexibility.
 
NTT だけが、専用線によるパブリック・クラウド接続を、提供する企業というわけではない。実際に、Amazon は Direct Connect を提供し、Microsoft は ExpressRoute を提供することで、グローバルにおけるサービス・プロバイダーたちと接続している。しかし、NTT が立ちあげた今回のサービスは、クラウドの利用者に数多くの選択肢と柔軟性を提供し、クラウド・マーケットを段階的に成熟させていくものとして評価できるだろう。
 
ーーーーー
Telecomこのところ、Cloud News Asia でも Hybrid 関連のトピックが目につきます。ひょっとして、アジアの企業文化がハイブリッド・クラウドを選ばせるのかと思うくらい、その数は多いと感じています。 今週は、香港ベースの Global Cloud Exchange に関する記事をポストしましたが、シンガポールを中心として Equinix Huawei も、ハイブリッド・クラウドのためのクラウド・エクスチェンジを増築しているという状況です。そして、この NTT の Multi-Cloud Connect が加わることで、アジアのマーケットは、さらに加熱していくのでしょう。 _AC Stamp
Hybrid IT and cloud-enabled technologies will define the new normal
Hybrid IT, cloud-enabled technologies fast becoming the ‘new normal’
Hybrid IT becoming the new normal in APAC
Will Hybrid IT and cloud-enabled technologies define the new normal?
Aligning IT and Lines of Business with Dynamic Hybrid Environments
ーーーーー
<関連>
NTT Com が 独 e-shelter を 買収:欧州 DC 事業者の No.3 に踊り出る
NTT の 上海データセンターと、そのアジア戦略について
Equinix が シンガポール DC を再拡張:Singtel に続く二番手の規模へ!
Alibaba クラウドも Equinix プライベート・リンクに接続
Huawei が ジョホールバールに、独自の Cloud Exchange をオープンする!
Huawei のパブリック・クラウドが発進する: Alibaba とのガチンコ勝負が はじまる!
コロケーション DC:世界の Top-12 ランキングを1枚のチャートで!
 

香港の Global Cloud Xchange が、シンガポールとインドを海底ケーブルでつなぐ!

Posted in .Selected, Asia, Network, Telecom by agilecat.cloud on August 25, 2015
Global Cloud Xchange to Expand Singapore-India Connectivity
August 21, 2015
http://prnw.cbe.thejakartapost.com/news/2015/global-cloud-xchange-to-expand-singapore-india-connectivity-2.html
 
_ Jakarta Post
 
SINGAPORE, Aug. 21, 2015 /PRNewswire/ — Global Cloud Xchange (GCX), a subsidiary of Reliance Communications (RCOM), today announced the expansion of Singapore-India connectivity to a broader base of global enterprises and carriers.
 
SINGAPORE, Aug. 21, 2015 /PRNewswire/ —  Reliance Communications (RCOM) の子会社である Global Cloud Xchange (GCX) が、Singapore と India を接続するためのネットワークを強化し、グローバルにおける多様なエンタープライズおよびキャリアに提供すると発表した。
 
GCX will acquire capacity on the TIC cable between Singapore and Chennai, which will be extended across the seven Indian Capital Cities on GCX domestic network within India. This terrestrial and submarine network will play a key role in Reliance’s expansion of its Cloud Xchange (Cloud X) nodes which will be the terminal points across this new network.
 
GCX は、Singapore と Chennnai を結ぶ TIC ケーブルのキャパシティを取得し、自社の国内ネットワーク上における 7つの Indian Capital Cities へ向けて拡張することになる。この、地上と海底のネットワークを組み合わせることで、Reliance の Cloud Xchande(Cloud X)上での Reliance の拡張を実現し、そのネットワークの終端となるノードを構築していく。
 
GCX“We are pleased to utilize the existing subsea cable infrastructure to deliver immediate capacity to meet growing requirements of our global business customers,” said Bill Barney, CEO of Reliance Communications (Enterprise) and GCX. “This will also support our digital backbone as we complete deployment of our Cloud X nodes across India.”
 
Reliance Communications (Enterprise) and GCX の CEO である Bill Barney は、「この、既存の海底ケーブルをインフラストラクチャとして利用することで、グローバルで事業を展開している顧客たちに対して迅速にキャパシティを提供し、急速に成長しているビジネスをサポートできる。そして、India 全土に展開している Cloud X ノードを完全なものにするための、デジタルバックボーンのサポートまで可能になる」と述べている。
 
Based on current 100G technology, GCX will be able to deliver significant capacity across this important Singapore-India route with the ability to further upgrade in the future based on technological advancements and market demand. The new capacity will interconnect with RCOM’s established network of data centers, connected by India’s largest terrestrial fiber network which also connects seamlessly into GCX’s global infrastructure – the world’s largest privately owned subsea cable system.
 
現状における 100G テクノロジーをベースに、GCX にとって重要な Singapore − India ルートに充分なキャパシティを加えることが可能となり、また、将来におけるテクノロジーの進化とマーケットの要求に応えるための、さらなる前進が約束される。この海底ケーブルから得られるキャパシティも、RCOM のデータセンター・ネットワークと相互接続され、また、India で最大の地上ファイバー・ネットワークと接続され、さらには、GCX のグローバル・インフラにシームレスに接続される。つまり、民間が所有する海底ケーブル・システムとしては、世界で最大級の構成が実現されることになる。
 
While RCOM’s infrastructure already constitutes a vital core of India’s digital backbone, the enhanced Singapore-India connectivity will deliver further diversity to meet growing market demands. “This will be a mission-critical component in the digital transformation of India and its connectivity to the world,” Barney added.
 
すでに RCOM のインフラは、India におけるデジタル・バックボーンの、重要なコアを構成しているが、Singapore – India 接続の強化により、これまで以上の多様性が提供され、成長するマーケットの需要が満たされていく。Barney は、「 今回の拡張は、India における次世代デジタルを実現する構成要素であり、また、世界への接続を約束するものになる」と付け加えている。
 
About Global Cloud Xchange
 
Global Cloud Xchange (GCX), a subsidiary of Reliance Communications, offers a comprehensive portfolio of solutions customized for carriers, enterprises and new media companies. GCX owns the world’s largest private undersea cable system spanning more than 67,000 route kms which, seamlessly integrated with Reliance Communications’ 200,000 route kms of domestic optic fiber backbone, provides a robust Global Service Delivery Platform.
 
Reliance Communications の子会社である Global Cloud Xchange(GCX)は、キャリアやメディアなどを含むエンタープライズに対して、カスタマイズされた包括的なソリューションによるポートフォリオを提供している。また、GCX が所有する、世界でも最大級のプライベート海底ケーブル・システムは、全長で 67,000 Route km におよぶものとなる。それらは、Reliance Communications が国内に展開する、200,000 Route km の光ファイバ・ネットワークとシームレスに接続され、堅牢な Global Service Delivery Platform のベースとなっている。
 
With connections to 40 key business markets worldwide spanning Asia, North America, Europe and the Middle East, GCX delivers Managed Services to more than 160 countries and offer extensive VPLS-enabled Ethernet network capabilities globally. GCX is equipped to support businesses through the deployment of next generation Enterprise solutions across its Cloud Delivery Networks.
 
Asia/North America/Europe/Middle East における、40の主要マーケットに広がるワールドワイド・ネットワークにより、GCX は 160カ国以上に Managed Services を提供し、また、大規模な VPLS-enabled Ethernet ネットワーク機能を、グローバルに提供している。そして GCX は、同社の Cloud Delivery Networks を横断する、次世代エンタープライズ・ソリューションの展開を通じて、あらゆる企業をサポートしている。
 
For More Information, contact:Genevieve LiTel:  +852-6028-8236Email:  gli@globalcloudxchange.com
 
ーーーーー
india-endorses-full-foreign-ownership-of-mobile-telcosTelecomこの Global Cloud Xchange という名前が気になって、ついつい訳してしまいました :)   インドでは年間で1億台くらいのスマホが売れていますし、シンガポールはデータセンター・ラッシュですし、、、というわけで、何かの関連性があるとは思っていましたが、こんな展開になっているのですね。 いまから2年ほど前に、「インド政府の決断 : 100% 外資のモバイル・キャリアを受け入れる?」という抄訳をポストしましたが、そこには Reliance Communications(RCOM)の名前は入っていません。 おそらく、モバイル・キャリアという位置づけではないのでしょう。 そして、Wiki で Reliance を調べると、インドで4番手のテレコム事業者だと説明されています。 また、GCX 自体は、香港ベースの企業のようです。インドもシンガポールもホットですね! _AC Stamp
ーーーーー
<関連>
Equinix が シンガポール DC を再拡張:Singtel に続く二番手の規模へ!
コロケーション DC:世界の Top-12 ランキングを1枚のチャートで!
NTT Com が 独 e-shelter を 買収:欧州 DC 事業者の No.3 に踊り出る
Huawei と Vodafone が、クラウドと IoT で全面的に提携か?
Equinix が Telecity を買収:そして ヨーロッパでも、最大の DC 事業者に!

BitTorrent と DDoS 攻撃の関連性: 放置すると、その UDP が悪用されるかもしれない

Posted in .Chronicle, Network, Security by agilecat.cloud on August 19, 2015
BitTorrent can be exploited for large-scale DoS attacks
Up to 120 times traffic amplification.
Juha Saarinen – Aug 17, 2015
http://www.itnews.com.au/News/407944,bittorrent-can-be-exploited-for-large-scale-dos-attacks.aspx
 
_ it news
 
Researchers have discovered a weakness in the popular BitTorrent file sharing protocol that could be abused to anonymously generate large-scale denial of service attacks against networks.
 
人気を博している BitTorrent だが、そのファイル共有プロトコルに弱点があることを、研究者たちが見つけ出した。具体的に言うと、ネットワークに対する大規模 DoS 攻撃を匿名で生成するために、悪用されかねないのだ。
 
Florian Adamsky and Muttukrishnan Rajaran from the City University of London, Rudolf Jäger from Technichesche Hochschule Mittelhesssen and Syed Ali Khayam of security vendor PLUMgrid discovered that a single attacker can exploit BitTorrent peers to generate up to 50 times the amount of traffic originally initiated.
 
City University of London の Florian Adamsky と Muttukrishnan Rajaran および、Technichesche Hochschule Mittelhesssen の Rudolf Jäger、そして、セキュリティ・ベンダーである PLUMgrid の Syed Ali Khayam らが発見したのは、攻撃者が BitTorrent のピアを悪用することで、最初に生成されたトラフィック量を、50倍にまで増やせてしまうという問題点である。
 
DDoS ImagesIn the case of the BTSync file synchronisation application, an attacker could amplify initial traffic 120 times by sending out specifically crafted requests to peers which exploit weaknesses in their data transmission protocols.
 
BTSync ファイル同期アプリケーションのケースでは、ピアに対して特定の細工を施したリクエストを送信することで、初期のトラフィック量を 120倍にまで増幅することが可能になるだろう。つまり、BTSync のデータ伝送プロトコルの弱点を、悪用できてしまうのだ。
 
As BitTorrent operates with the user datagram protocol (UDP) – which does not have address-spoofing defences like transmission control protocol (TCP) – attackers can hide their origins and send a large amount of data via other users’ clients.
 
BitTorrent は UDP (user datagram protocol) で動作するため、TCP (transmission control protocol) のような、アドレス成りすましに対する防御策を持っていない。したがって、攻撃者は自身の存在を隠したまま、他のユーザーのクライアントを介して、大量のデータを送信できてしまう。
 
This is a technique called reflection, and is increasingly used in denial of service attacks on the internet, with attackers taking advantage of vulnerable protocols to disrupt networks.
 
この手口は、リフレクション(reflection)と呼ばれるものであり、また、インターネットにおける DoS 攻撃に、使用されるケースが増えてきている。そして、ネットワークの破壊を狙う攻撃者が、このプロトコルの脆弱性を悪用する可能性があるのだ。
 
The most popular BitTorrent clients such as Vuze and uTorrent are vulnerable to the exploit, and can be made to take part in DoS attacks, the researchers found.
 
人気の BitTorrent クライアントである Vuze と uTorrent なども、この種の手口に対しでは脆弱であり、DoS 攻撃に参加させられてしまうだろうと、研究者たちは指摘している。
 
The IP address spoofing makes it difficult for internet providers to deploy effective countermeasures against BitTorrent reflective DoS attacks.
 
そして、BitTorrent リフレクション DoS 攻撃に対して、インターネット・プロバイダーたちがディプロイする対策の効果が、その成りすまし IP アドレスにより、減じてしまうのだ。
 
They suggest a two-pronged strategy comprising global internet provider coordination to prevent IP spoofing, as well as adding defence mechanisms in the protocols used by BitTorrent clients to avoid their exploitation.
 
研究者たちが示唆するのは、グローバル・インターネット·プロバイダーたちが協調して、成りすまし IP に対抗すべきといういうものだ。そして、BitTorrent クライアントの悪用を避けるために、そこで用いられるプロトコルに、何らかの防御メカニズムと導入するという、二面性の戦略で臨むべきだと指摘している。
 
The researchers’ paper, P2P File-Sharing in Hell: Exploiting BitTorrent Vulnerabilities to Launch Distributed Reflective DoS Attacks [pdf] was presented at a recent Usenix forum. The group crawled more than 2.1 million internet protocol (IP) addresses for analysis.
 
ーーーーー
research_55大規模 DDoS 攻撃に関するニュースが増えていますが、それらに対する防御策も、いろいろと考案されているようです。しかし、その一方では、アタッカーたちも NTP(network time protocol)で攻撃したりと、イタチごっこが続いているようにも思えます。その意味で、BitTorrent の UDP (user datagram protocol) を悪用するケースを、先回りして未然に防ごうとする、このようなレポートは大歓迎ですね。 _AC Stamp
ーーーーー
<関連>
2014 – 木曜日の夕方に生じた Facebook のダウンは、中国からの DDoS 攻撃だったのか?
2014 – 昨日に Evernote を襲った DDoS 攻撃も、400 Gbps 規模だったのか?
2014 – この月曜日に、記録破りの DDoS 攻撃が仕掛けられた!
 

Google の 60Tbps 太平洋海底ケーブルは、どのような未来を見せてくれるのか?

Posted in .Selected, Asia, Google, Network by agilecat.cloud on August 18, 2015
Google’s 60Tbps Pacific cable will have highest-ever capacity across Pacific Ocean
Tim Hornyak | June 24, 2015
http://mis-asia.com/tech/industries/googles-60tbps-pacific-cable-will-have-highest-ever-capacity-across-pacific-ocean/
 
_ MIS
 
With bottles of bubbly and a purification ceremony, a Google-backed undersea cable was given a warm welcome on a beach in Japan last week, a critical step in building the highest capacity data link in the Pacific ever created.
 
シャンパン・パーティーと厳かな儀式。 Google が支援する海底ケーブルが、先週(6/24)に Japan サイドに陸揚げされたとき、そんな温かい歓迎を受けたようだ。最大のキャパシティで太平洋を横断する、このデータリンクを構築する上で、それも重要なステップだったのだろう。
 
google-faster-cableThe 9,000-kilometer FASTER cable will have a peak capacity of 60 terabytes per second (Tbps) when it enters operation next year, joining Japan with Oregon on the West Coast of the U.S. Apart from Google, the project is backed by telecom carriers KDDI of Japan, SingTel of Singapore, Global Transit of Malaysia, China Mobile International and China Telecom Global.
 
この 9,000km の FASTER ケーブルは、来年に運用が開始されると、60 Tbps (terabytes per second)という最大キャパシティで、Oregon と Japan を接続することになる。このプロジェクトには、Google だけではなく、Japan の KDDI/Singapore の SingTel/Malaysia の Global Transit/China Mobile International/China Telecom Global といった、テレコム・キャリアたちも相乗りしている。
 
At the landing site in Shima, Mie Prefecture, east of Osaka, a machine pulled the cable onto the beach from an offshore cable-laying ship while stacks of armored pipes, which shield the link from anchors near the shore, were piled nearby. A Shinto ritual was held to pray for the success of the project, which will cost roughly US$300 million. The cable was routed into a landing station building that houses optical equipment.
 
Mie Pref の Shima サイトでは、敷設船から海岸線へと、ケーブルが陸揚げされている。そして、このリンクは、何重にも装甲されたパイプにより、船のイカリから守られている。神道による祈願も、この US$300 million のプロジェクトを、成功へと導いていた。そして、光学機器を収容したステーションへと、このケーブルは無事に陸揚げされた。
 
The FASTER cable will also be connected to existing infrastructure offshore at Chikura, Chiba Prefecture, southeast of Tokyo, next month. With six fiber pairs and 100 wavelengths, it will have a peak capacity 300 million times greater than the TAT-1 transatlantic cable of 1956, which could handle 36 telephone calls, or roughly 200kbps, Google said.
 
FASTER ケーブルは、来月には Chiba Pref の Chikura でも、既存のインフラストラクチャに接続される。この 6 Fiber ペアと 100 Wavelength を有するケーブルは、1956年から運用されている TAT-1 海底ケーブルと比較すると、約 3億倍の最大キャパシティを有することになる。その当時は、200 Kbps のキャパシティにより、36回線の通話をサポートするものに過ぎなかったと、Google は述べている。
 
KDDI said it was 3000 times faster than the 20Gbps TPC-5 cable system, which began service in 1995. Consumers on either side of the Pacific, however, won’t have the option of choosing which of the several undersea cables their data goes through.
 
また、KDDI の説明によると、このケーブルは、1995年から運用されている 20Gbps TPC-5 システムに対して、約 3000倍の高速性を誇るものになるという。つまり、太平洋を挟んで通信する利用者たちは、どちらのケーブルを望むのかという点で、選択肢を持ち得ないことになる。
 
“It just means that there’s more capacity between United States and Japan, and the throughput will be better,” said Shota Masuda, a senior manager at the Submarine Network Division at NEC, which is building the new cable system. “You might feel that the Internet experience is a little smoother or faster.”
 
NEC Submarine Network Division の Senior Manager である Shota Masuda は、「U.S. と Japan を、これまで以上のキャパシティで接続することで、そのスループットも向上するだろう。そして、より高速で滑らかな、インターネット・エクスペリエンスを得るだろう」と述べている。
 
Roughly 99 percent of all transoceanic Internet data goes through submarine cables, which are designed to last decades. Several hundred systems link various parts of the world, and the FASTER cable is scheduled to be ready for service in the second quarter of 2016.
 
大海原を横断していくインターネット・データの約99%が、10年〜20年も前にデザインされた海底ケーブルを通過し、この世界における各地を、数百のシステムがリンクしている。そして、FASTER ケーブルは、2016年 Q2 にはサービス・インの予定である。
 
ーーーーー
google-55aこの FASTER ですが、約20年前の TPC-5 に対して、3000倍というキャパを持つようですね。Android フォンの Google Now で、音声が瞬時に解析されたときに、ビックしたのですが、それ以上の驚きが次々に登場してくるのでしょう。 海底ケーブルによる遅延が限りなくゼロに近づき、また、データセンターへの電力供給 (自給) の問題が解決されたとき、どんな災害にも負けないインターネット網が、ほんとうの意味で確立されるのです。楽しみですね〜〜〜 :) _AC Stamp
ーーーーー
<関連>
Google Cloud Platform の圧倒的なネットワーク能力: ユーザー企業が賞賛!
Google が開発する Brillo は、IoT のための オープン OS なのか?
Google が、シンガポール 第2DC の計画を発表した
Google Now と WhatsApp をつなげて、しゃべったメッセージを テキストで送信!
Google のインフラ投資額 : これまでに $21B をデータセンターに!
 

Google Cloud Platform の圧倒的なネットワーク能力: HTC がユーザー企業として賞賛!

Posted in .Selected, Data Center Trends, Google, Network by agilecat.cloud on August 6, 2015
Google is its own secret weapon against Amazon & Microsoft in cloud computing
By New York Times – 17 Jun, 2015
http://articles.economictimes.indiatimes.com/2015-06-17/news/63540797_1_microsoft-azure-amazon-web-services-cloud-companies
 
_ Economic Times
 
Google is wielding a new weapon against Amazon and Microsoft for cloud computing customers: itself.
 
Google だが、クラウド・コンピューティングを改善するために、Amazon と Microsoft に対して、新しい武器で挑もうとしている。
 
Google is talking more openly about companies that use its cloud business, and revealing more about its computing resources, perhaps the largest on the planet. These include disclosures about Google’s ultrafast fiber network, its big data resources and the computers and software it has built for itself.
 
Google は、自身のクラウド・ビジネスを利用する企業に対して、以前よりもオープンに話しかけている。 そのため、この地球上で最大だと思われる、Google のコンピューティング・リソースについても、詳細が明らかになってきている。そこには、Google の超高速ファイバ・ネットワークや、ビッグデータ/コンピュータ/ソフトウェアといった、自社で構築してきたリソースも含まれている。
 
Check Out this Workshop near LA For you are in the LA Area (or willing to travel for an interesting workshop), join my friends Frederick Van and Joeseph Linashke for their workshop at nearby Joshua Tree.  These guys have worked hard to put together a really excellent program... you can visit the website to see everything that is included! New Interview Up with Ron Martinsen I had an interview with the extremely nice Ron Martinsen.  Head on over Ron's photography blog to have a loosee!  He also has a nice discount code on my textures tutorial, in case you have been waiting for a good deal!' Daily Photo - A Great Day at the Google HQ! Wow that was a cool experience.  Those guys and gals over there are super-nice.  You never know...  I guess maybe Google seems somewhat intimidating from the outside, but after I met guys like Cliff, Brian, and Chip -- I felt right at home. I gave an hour-long talk in one of their theaters there.  It was super-packed and people were standing all around because seats were gone.  We were graced with the presence of one Sara Jane Todd from @Peachpit to help out selling books - and we sold out!  Also, my Brazilian friend Fabio, the editor of Abduzeedo was there too, so it was great to see him. The Authors@Google (video link) program has a neat deal where they subsidize books, so Googlers don't have to pay full price.  I saw all kinds of cool stuff and took a lot of pics.  I have to get most cleared with Google Corp Comms before I can release... but I nabbed shots of a spaceship, a new pseudo-holodeck, and more mysteries await!  We even got to eat lunch there in the Google cafeteria, which had some of the most excellent food I've ever had in such a setting... they even have a small organic farm on the campus... well, I could go on and on...  but I was very impressed and happy to meet so many enthusiastic people! The video should be done in the next 2-3 weeks or so.  We've got good-man Brian at Google slaving away on editing the whole thing together! from Trey Ratcliff at www.stuckincustoms.com Flicker
Trey Ratcliff
 
Google is talking more openly about companies that use its cloud business, and revealing more about its computing resources.
 
The aim is to position Google as a company capable of handling the biggest and toughest computational exercises, lightning fast. The disclosures follow earlier moves by Google Cloud Platform, as the search company’s cloud computing business is called, to show off its data analysis capabilities.
 
その目的は、最大かつ最高のコンピューティング身体能力を、光の速さでハンドリングできる企業として、Google と位置づける点にある。一連の開示は、Google Cloud Platform の動向に追随するところから始まっている。それは、検索会社のクラウド・コンピューティング事業と呼ばれるように、データ解析能力を誇示するものとなっている。
 
Details like the ability to pass information between Europe and the United States in less than 100 milliseconds, and a practice of fully backing up user data in nine different locations, make Google seem both cutting edge and even bigger than most people suspected. But the company may also be borrowing a playbook from Amazon Web Services, which in 2013 started disclosing some mind-blowing metrics about its global computing network.
 
その能力の詳細はというと、Europe/United States 間のデータ送信を 100ミリ秒以下で完了し、また、9ヶ所に分散されたロケーションにユーザー・データをバックアップするという、人々が推測する以上の最先端かつ最大規模の存在として、Google を映し出すものになっている。さらに同社は、Amazon Web Services の脚本をなぞることも可能だ。2013年のことだが、AWS はグローバル・コンピューティング·ネットワークに関して、いくつかの素晴らしい指標を公開しているのだ。
 
At an event Tuesday for Google Cloud Platform – Google’s name for the computing, storage and networking it sells to business – Google will name the Taiwanese phone maker HTC as a customer. HTC has used Google to build a new kind of computing architecture that enables smartphone apps to update data fast and reliably to many devices at once, and look efficient even when the phones get poor reception.
 
この火曜日(6/16)に開催される Google Cloud Platform(企業向けに販売されるコンピューティング/ストレージ/ネットワークの名称)のイベントで、Google は Taiwan のスマホ・メーカーである HTC を、その顧客として公表する。新しいコンピューティング・アーキテクチャを構築する存在として、HTC は Google を採用している。それは、スマホ・アプリの高速アップデートと、大量のデバイスに対する一括処理を実現するものであり、また、通信環境がプアな場合であっても最善を目指すというものだ。
 
On Wednesday, a senior Google executive is expected to give what the company says will be an unprecedented look at the overall Google network design. This includes key tools that enable large-scale management of computing devices across the globe, according to one customer.
 
そして水曜日には Google の幹部が、そのネットワーク・デザインについて、前例のない様相を示していると、言及するだろうと期待されている。あるカスタマーによると、そこに含まれる重要なツールは、世界中に点在するコンピューティング·デバイスを、大規模なスケールで管理するものになるという。
 
telegeography-map“We are managing 2 million to 3 million smartphones in this network,” said John Song, the senior director of engineering at HTC. “Google is the only player in cloud that owns lots of fiber-optic cable worldwide, and it replicates its users’ data in nine different places at all times.” That kind of control, he said, enables users to do more technically difficult things.
 
HTC の Senior Director of Engineering である John Song は、「私たちは、このネットワーク上で、200万〜300万台のスマートフォンを管理している。Google は、世界に張りめぐらされた光ファイバ・ケーブルを所有しているという意味で、唯一のクラウド・プレーヤーである。そして、すべての状況において、9ヶ所の異なるロケーションに、そのユーザ・データを複製している」と述べている。彼によると、この種のコントロールがユーザー企業に提供されることで、より困難な技術的課題であっても実現できるという。
 
Song said HTC also looked at the cloud offerings of AWS and Microsoft Azure, along with IBM and Alibaba. Google was the dark horse, because it does not operate in China, and HTC wanted to be everywhere in the world. Google’s technical dedication won the day.
 
Song の発言によると、HTC は AWS と Microsoft Azure や、IBM と Alibaba からのクラウド提案も検討したようだ。そして、HTC はグローバルをサポートしたいのに、Google は China で使えないため、ダークホース的な存在であったようだ。しかし、Google の技術的な取り組みが、今日の勝利につながっている。
 
“The other salesmen just wanted to take orders,” he said. That may not be a winning approach for a mass of customers, but it does suggest how each cloud player is reflecting the nature of its core business.
 
つまり、「他社のセールスマンは、単に注文を取りたかっただけ」と、彼は述べている。 Google のアプローチは、マス・マーケットで勝つためのものではないだろうが、それぞれのプレイヤーにおけるコア・ビジネスの性質を反映した、クラウドへの取り組みという観点を示唆している。
 
Amazon, a retailer, is offering computing at scale and ease of use in data analysis. Microsoft, with decades of business ties, stresses its interoperability with current systems and data tools. And IBM has lots of high-level data analysts.
 
Amazon は小売業のメリットを活かし、規模のコンピューティングと、容易に利用できるデータ分析を提供している。Microsoft は、数十年におよぶ企業システムでの実績をベースに、現状のシステムおよびデータ·ツールとの、インターオペラビリティを押し出している。また、IBM もハイ・レベルのデータ分析を、数多く有している。
 
“Each of the cloud companies wants to store and process all of a company’s data,” said Sharmila Mulligan, co-founder and chief executive of ClearStory Data, a corporate data analysis company, who described all of the companies as “extremely partner-friendly” with companies like hers, owing to their urgency to offer more big data services.
 
企業データ分析会社 ClearStory Data の、Co-Founder and Chief Executive である Sharmila Mulligan は、「それぞれのクラウド企業が、顧客であるユーザーの、すべてのデータを保持/処理したいと考えている」と述べている。彼女は、「きわめてパートナー・フレンドリー」だと、それらの企業を表現している。 それは、ClearStory Data にも似たものであるが、その背景には Big Data サービスを急いで提供したいという、思惑があるという。
 
“Data analysis presents a stickiness – once you’ve put your corporate data in one of them and you’re analyzing it, you won’t move out,” she said. “You’ll be constantly ingesting new data – how could you afford to move? If they own your data, they own you.”
 
彼女は、「データ解析は、きわめて粘性の高いサービスである。それらのクラウドにデータを預け、すでに分析しているなら、他への移行は考えなくなるだろう。つまり、常に新しいデータが取り込まれている状況で、移行を考える余裕があるだろうか? それらのクラウドが、あなたのデータを所有しているなら、あなた自身を所有していることになる」と発言している。
 
Nobody crunches data like Google, and the new portrait of its resources is intended to show that handling almost any corporate task will be easy for it. Google Cloud Platform has built out specialties in areas like manufacturing, genomics and media to handle industry-specific needs on a global basis.
 
Google のように、データを高速処理しているクラウドはない。同社のリソースが写し出す光景は、大半の企業におけるタスクの処理を、簡潔なものにしようという発想である。Google Cloud Platform は、グローバルにおける業界固有のニーズに対応するものであり、また、製造業/ゲノム解析/メディアなどの分野に特化したかたちで構築されている。
 
“We have 90 points of presence around the world,” said Dan Powers, a Google Cloud sales executive, referring to places customers can get access to the Cloud.
 
Google Cloud の Sales Executive である Dan Powers は、「世界に点在する 90 の PoP(points of presence)を有している」と述べているが、その数自体が、同社のクラウドにアクセスできる場所を示すものとなる。
 
A point of presence, or PoP, is where a company’s computers get direct access to the Internet and a local telecommunications service provider.
 
それらの PoP はダイレクト・アクセスを実現するものであり、ユーザ企業のコンピュータを、インターネットやローカル通信サービス・プロバイダに接続していく場所となる。
 
Leah Bibbo, a spokeswoman for AWS, said her company currently had 53 PoPs worldwide. Also Tuesday, AWS announced that it would offer data analysis in Spark, a technology for handling very large data loads that is rapidly overtaking existing methods.
 
AWS のスポークスマンである Leah Bibbo は、現時点において 53ヶ所の PoP を、ワールドワイドで展開したと述べている。そして火曜日の AWS は、Spark によるデータ分析を提供すると発表している。このテクノロジーは、大量のデータをハンドリングするものであり、また、既存の方式を上回るとされている。
 
Powers also said Google runs 2 billion containers, or ways of managing software globally, every week: “We hope to run billions for customers.”
 
その一方で、Google の Powers は、ソフトウェアをグローバルで管理するために、1周間で20億個というペースで、コンテナを拡散しているという。 そして、「数十億のコンテナを、顧客のために拡散したい」と述べている。
 
ーーーーー
google-55a2009年のことですが、「なぜ、Google はアジアの海底ケーブルに投資する?」という抄訳のポストで、ネットワークに投資していく Google のスタンスを知りました。 そして、このポストで紹介されている HTC のコメントを読むと、その長期的な戦略が結果を生み出し始めたのだと思えてきます。 さらに言えば、膨大な数の Android デバイスに対して、アプリやコンテントを供給していくシステムとネットワークは、ある種の IoT だと捉えることも可能です。 これからも、継続してネットワークに投資していくであろう、Google の動きに注目ですね。 _AC Stamp
ーーーーー
<関連>
Google が開発する Brillo は、IoT のための オープン OS なのか?
Google が、シンガポール 第2DC の計画を発表した
Google Now と WhatsApp をつなげて、しゃべったメッセージを テキストで送信!
Google のインフラ投資額 : これまでに $21B をデータセンターに!
Google の アジア・データセンター戦略とは?
 

Huawei が ジョホールバールに、独自の Cloud Exchange をオープンする!

Posted in .Selected, Asia, Data Center Trends, Huawei, Hybrid, Network, Strategy, Web Scale by agilecat.cloud on July 28, 2015
Huawei’s Johor regional cloud centre off to running start
AvantiKumar – July 9, 2015
http://mis-asia.com/resource/cloud-computing/huaweis-johor-regional-cloud-centre-off-to-running-start/
_ MIS
 
Chinese ICT firm Huawei, which recently launched its first Asia Pacific Digital Cloud Exchange in Iskandar, Johor, to help drive Malaysia’s regional ambition, has announced that several new projects are already off to a strong start.
 
China の ICT 企業である Huawei は、最近になって Malaysia の Iskandar, Johor に、同社の Asia Pacific Digital Cloud Exchange 構想における最初の拠点を立ち上げ、また、いくつかの新しいプロジェクトが順調に進んでいることを発表した。
 
CES_2012_-_HuaweiHuawei Malaysia chief executive officer Abraham Liu said the new initiatives included global mobile game distributor Uzone Games’ launch of its Mini 4WD game in Malaysia as well as Les’ Copaque Production, which owns Upin & Ipin, will provide digital content to the Asia Pacific region from the Huawei Digital Cloud Exchange in Iskandar.
 
Huawei Malaysia の CEO である Abraham Liu は、Malaysia で Mini 4WD ゲームを立ち上げた Uzone Games や、Upin & Ipin というゲームを所有する Les’ Copaque Production といった企業を、この新たな取り組みが後押しすると述べている。 つまり、それらのデジタル・コンテントが、Iskandar の Huawei Digital Cloud Exchange から、Asia Pacific リージョンへ向けて配信されていくことになる。
 
“As one of the fastest growing markets in the region, we are pleased to open our first Data Hosting Centre, the Huawei Digital Cloud Exchange, in Malaysia. Our investment in this facility is a major milestone in making Malaysia our regional business gateway,” said Liu, during the launch ceremony, which was officiated by Malaysian deputy prime minister, YAB Tan Sri Dato’ HJ Muhyiddin HJ. Mohd Yassin and Wu Zhengping, the Economic and Commercial Counsellor at the Embassy of People’s Republic China in Malaysia.
 
そして  Abraham Liu は、「このリージョンにおける Malaysia は、最速で成長していると思えるマーケットであり、そこに最初の Data Hosting Centre を、つまり Huawei Digital Cloud Exchange をオープンできて嬉しく思う。このファシリティへの投資は、Malaysia をビジネス・ゲートウェイにするという意味で、きわめて重要なマイルストーンになる」と、今回の立ち上げに関するセレモニーで発言している。なお、このセレモニーは、Malaysia の副首相および、YAB Tan Sri Dato の HJ Muhyiddin HJ. Mohd Yassin、そして、China 大使館の Economic and Commercial Counsellor である Wu Zhengping により主催されている。
 
“Malaysia’s investment-friendly policies, its skilled workforce and geographic advantages underline our confidence in the country’s potential as a Regional Digital Cloud Exchange,” he said.
 
Abraham Liu は、「Malaysia の投資に寛大な政策、洗練された労働力、そして地理的な利点は、Regional Digital Cloud Exchange を構築する上で、私たちの大きな自信となる」と、述べている。
 
In addition, Huawei signed memorandums of understanding (MoUs) with Uzone Games, Les’ Copaque Production, M-Mode Mobile and Elite Entertainment to promote digital business and with Universiti Teknologi Malaysia to encourage academia and industry collaborations.
 
さらに Huawei は、デジタル・ビジネスを促進するために、Uzone Games および Les’ Copaque Production、M-Mode Mobile、Elite Entertainment と MOU を交わし、また、Universiti Teknologi Malaysia と産学連携を推進している。
 
ICT convergence
 
Liu said the regional data hosting centre stemmed from an October 2013 agreement with government investment body Khazanah Nasional,
 
Abraham Liu が言うには、このリージョンにおける Data Hosting Center について、政府系の投資組織である Khazanah Nasional との契約は、2013年10月から生じている
 
Huaweis_Digital_Cloud_Exchange_JohorPhoto – YAB Tan Sri Dato’ HJ Muhyiddin, Deputy Prime Minister of Malaysia visiting Huawei’s Digital Cloud Exchange Centre at Bandar Medini, Iskandar, Johor.
 
He said ICT convergence in the world will “continue to be the enabler in driving a new round of exponential growth across industries. By 2020, there will be 4.6 billion mobile users and 5.9 billion smartphones. One hundred (100) billion connections will be made and mobile market size will be over US$3.9 trillion.”
 
世界 の ICT コンバージェンスに関して、「 業界における指数関数的な成長が、新しいラウンドの推進を実現し続けるだろう。2020年までに、46億人のモバイル・ユーザーと、59億台のスマートフォンが、この世界に溢れることになる。そして、全体で 1000億のコネクションが存在することになり、モバイル市場の規模は US$3.9 trillion を超えることになる」と、彼は述べている。
 
Huawei’s Asia Pacific Cloud Exchange in Iskandar has aggregated more than 2,100 partners worldwide and more than 200,000 pieces of digital contents, including digital music, mobile game, video, open Application Program Interface (API), traffic monetisation, B2B cloud, and M2M.
 
Iskandar における Huawei の Asia Pacific Cloud Exchange は、世界中から 2100社以上のパートナーを集めることになる。そして、Digital Music/Mobile Game/Video/Open API/Traffic Monetisation/B2B Cloud/M2M などが、20万種類以上といわれるデジタル・コンテンツを構成することになる。
 
“Huawei’s Digital Cloud Exchange will not only help nurture Malaysia’s creative content and the vast pool of local talent and but also create a productive and innovative digital market worth billions of USD. We are keen on partnering with the public and private sectors to turn this vision into reality,” added Liu.
 
「Huawei の Digital Cloud Exchange は、Malaysia のデジタル・コンテントをもたらし、人材の育成を大規模に展開するだけではなく、そのデジタル・マーケットの生産性を、Billions of USD レベルへと引き上げていく。そのビジョンを実現するためにも、私たちは官民との提携を熱望している」と、Liu は付け加えている。
 
“We are grateful for the enormous support from the Malaysian government that continues to encourage a partnership approach with investors. Their policies and approach to foreign investment make investing in Malaysia win-win proposition. We are happy to share our experiences with other investors looking to expand to Malaysia,” he said.
 
「 私たちは、投資家とのパートナーシップを奨励し続けてくれる、Malaysia 政府の多大な支援に感謝している。私たちのような外資に対する、同政府のポリシーとアプローチが、Malaysia との Win-Win 関係をもたらす。そして、私たちは、Malaysia を成長させようとする、その他の投資家とも、これまでの経験を喜んで共有したい」と、彼は締め括っている。
 
ーーーーー
_ Huaweiこの記事を読む限り、Huawei の Cloud Exchange には Digital Music/Mobile Game/Video だけではなく、Open API/Traffic Monetisation/B2B Cloud/M2M なども含まれるということですから、Equinix の対抗馬として捉えられるのかもしれません。 しかし、その一方で、Huawai は通信機器メーカーであり、クラウド・プロバイダーではないという認識もあります。 そして、China Tech News を見ていたら、Chinese Cloud Computing War Will Soon Begin というポストを見つけたのですが、それによると、Huawei がクラウド・プロバーイダーとして Aliyun と競合していくようです。 ほんとうにアジアの動きはダイナミックだと、あらためて認識しました。 なお、文中にある、マレーシアでの実績というのは、China Mobile の動きと絡んだものなのかもしれませんね。_AC Stamp
ーーーーー
<関連>
Huawei と Vodafone が、クラウドと IoT で全面的に提携か?
Huawei の年商が US$46B に成長:すでに Google に迫る勢いだ!
Huawei と 5G の世界:特許ポートフォリオで優位に立つのか?
Huawei と BT が、アイルランドで 400 Gbps Fiber の実験を成功させた
Asia の調査 4/19〜4/25:Huawei の勢いが止まらない
 
 

HTTP/2 の調査: Web の速度を 10倍〜40倍にアップし、将来の暗号化を視野にいれる!

Posted in .Selected, Network, On Monday, Standard by agilecat.cloud on June 15, 2015
HTTP/2: Blueprint for Speedier and More Secure Internet Communications
By Dick Weisinger – June 12th, 2015
http://formtek.com/blog/html2-blueprint-for-speedier-and-more-secure-internet-communications/
_ formtek
In February 2015 an overhaul of the HTTP protocol was approved, the first change since HTTP 1.1 was adopted in 1999.  The new protocol is being called HTTP/2.
 
2015年2月のことだが、HTTP プロトコルに関する徹底的な改善が承認された。 それは、1999年に HTTP 1.1 が採択されてから、初めての変更となる。 そして、この新しいプロトコルは、HTTP/2 と呼ばれている。
 
The new protocol was in development for two years by the IEFT (Internet Engineering Task Force) and is based on a protocol created by Google called SPDY.
 
この新しいプロトコルは、IEFT(Internet Engineering Task Force)が2年を費やして開発したものであるが、Google が作成した SPDY というプロトコルをベースにしている。
 
Chagall_15Some of the ways in which HTTP/2 will speed up internet communication is the compression of header information and the ability to send multiple requests over a single connection.  Web pages should load ten to forty times faster with HTTP/2.  The improvements are expected to speed up web traffic and improve efficiency so that mobile devices will consume less power when loading browser pages.
 
HTTP/2 がインターネット通信を高速化する手法としては、ヘッダ情報を圧縮する能力や、シングル・コネクション上でのマルチ・リクエストの送信などが挙げられる。そのため、HTTP/2 を用いた場合において、Web ページのロードは 10倍〜40倍も高速化されるという。この更新により、Web トラフィックが高速化され、効率がを改善されるはずだ。したがって、モバイル・デバイス上のブラウザで、Web ページをロードする際に、電力の消費が低減されることになる。
 
HTTP/2 was originally intended to have TLS (Transport Layer Security) encryption, or SSL, built in, but that idea was rejected because it was felt that doing so would make implementation of the new standard much more difficult for network operators and proxy vendors.
 
もともとの HTTP/2 構想では、TLS(Transport Layer Security)暗号化と、SSL をビルトインで取り込むことた意図されていたが、その考えは拒否された。なぜなら、そのセキュリティ対策を実施することで、ネットワーク・オペレータやプロキシー・ベンダーによる、この新しいスタンダードの実装が難しくなるという、懸念が生じたからである。
 
Mark Nottingham, chair of the IETF HTTP Working Group, said that “one of the big reasons that HTTP/2 took so long to get to is that upgrading the protocol in the deployed infrastructure is really hard; there are lots of boxes out there that assume HTTP/1 will never change.  So, if the transition from HTTP/1 to HTTP/2 goes well, it should be a lot easier to introduce the next version, because we can use the same mechanism that we used for the first big hop.”
 
IETF HTTP Working Group の Chair である Mark Nottingham は、「HTTP/2 の確定までに、かなりの時間が費やされた大きな理由として、インフラの深部にディプロイされたプロトコルを、アップグレードすることが、きわめて困難になるという捉え方があった。つまり、HTTP/1 が変化しないと想定すると、たくさんの障害が取り残されることになる。したがって、HTTP/1 から HTTP/2 への移行が上手くいけば、次期バージョンの導入が、きわめて容易になるはずだ。なぜなら、最初の大きな飛躍で用いたメカニズムを、再び利用できるようになるからだ」と述べている
 
ーーーーー
On Mondayそんなに Web が速くしてくれるなら、HTTP/2 に対する期待が膨らみますね。 しかし、HTTP/1 のトラフックが飛び交う中で、HTTP/2 を増やしていく必要があるので、プロトコルの切り替えというのは、ほんとうにタイヘンですね。 そして、HTTP 2.1 の登場により、HTTP/2 の時代が幕を開けるのでしょう。 文中の最後の方で、「最初の大きな飛躍で用いたメカニズム」と表現されているのは、HTTP 1.0 から HTTP 1.1 へのステップ(たけけんのサーバー勉強日記)のことなのだろうと推測しています。 楽しみですね! _AC Stamp
ーーーーー
<関連>
Container の調査: CoreOS と Google のタッグと、新興の OSv が、Docker に対抗する!
Cloud の調査:コンテナの潜在能力を解放し、無駄なリソース消費を排除すべきだ
Browser の調査: IE を Spartan でリプレイスする、Microsoft の狙いは 何処にあるのか?
Security の調査: ハッカーが物理的に侵入すると、大半の企業は数時間で丸裸にされる?
Microservices の調査:Amazon.com におけるマイクロサービス・アーキテクチャとは?
 
 
%d bloggers like this: