Agile Cat — in the cloud

成長する OpenStack と 呼応する アジア : 次のサミットは 11月の 香港だ!

Posted in .Selected, Asia, OpenStack by Agile Cat on August 21, 2013

OpenStack Grows Up And China Notices
http://wp.me/pwo1E-6vZ

Charles Babcock| July 24, 2013
http://www.informationweek.com/cloud-computing/infrastructure/openstack-grows-up-and-china-notices/240158721

_ Information week

In three years, OpenStack has taken the lead in open source for the enterprise cloud. Fall summit scheduled to take place in Hong Kong.

この3年間にわたって OpenStack は、エンタープライズ・クラウドのオープンソース化をリードし続けてきた。 そして、この秋に予定されるサミットは、その開催地として Honk Kong を選んでいる。

ーーーーー

When OpenStack uncorks the champagne for its anniversary on Wednesday at OSCON (the Open Source Conference) in Portland, Ore., it doesn’t need to cite surviving three tumultuous years or the number of lines of code produced. It will have more qualitative gains to celebrate.

この水曜日に、Portland, Ore で開催された OSCON (the Open Source Conference) で、OpenStack が 3年目を記念のシャンパンの封を切った。 しかし、そのときに、大量のコードを生成しながら、激動の 3年間を生き続けたと、あえて説明する必要もなかったようだ。これから先も、OpenStack の性質からして、さらなる祝福が訪れるだろう。

imageOpenStack is the de facto leader in open source code for the enterprise cloud. It’s moved decisively into the lead for the production of both cloud provisioning and management and software-defined networking — that still loosely defined area of private cloud operations.

OpenStack は、エンタープライズ・クラウドのための、オープンソース·コードという領域におけるデファクト・リーダーであり、クラウドのプロビジョニングとマネージメントという 2つの局面で、生産すべきソフトウェアを決定するというポジションを、明確にリードするようになってきた。それは、プライベート・クラウド運用の領域を、大まかなところで定義する SDN についても言えることである、

OpenStack is downloaded with great regularity as the prototype system for a private cloud. According to founding member and Rackspace’s senior VP of private cloud Jim Curry, who spoke to us in an interview prior to the anniversary, the Rackspace release for private cloud has seen 29,000 downloads.

OpenStack は、プライベート・クラウドのプロトタイプとして、安定したペースでダウンロードされている。OpenStack の創立メンバーであり、Rackspace の Senior VP of Private Cloud でもある Jim Curry は、前述の記念日に先立ったインタビューにおいて、プライベート・クラウド用の Rackspace リリースは、すでに 29,000 ダウンロードに達していると説明していた。

Downloads, however, don’t mean much by themselves. What matters is the number of downloads that lead to working implementations. The list of publicly recognized implementers is shorter, but it includes, in addition to Rackspace and HP, such names as Comcast, Paypal and CERN. Also add Best Buy, Fidelity, Bloomberg and a fourth major enterprise user to be announced Thursday.

しかし、ダウンロードされるだけでは、それほどの意味もない。何が重要かといえば、実装につながるダウンロード数が重要となる。公認された実装者のリストは不足しているが、Rackspace と HP に加えて、Comcast および、Paypal、CERN などが加わるようになってきた。さらに言えば、Best Buy と、Fidelity、Bloomberg と、それに続く 4番目の主要エンタープライズ·ユーザーが、木曜日にはアナウンスされる。

It’s still too soon to compare OpenStack to Linux, although Openstack adherents are quite fond of doing so. Linux, through hard experience, produced a kernel development process that imposed the discipline of adding only processes or code that complemented what was already there. It’s not clear whether OpenStack, with its long list of code contributors, committers and sponsors (many of them competitors with rival agendas) will institute such discipline or drift into feature bloat. I’ve heard the team leaders say no benevolent dictator – i.e., Linus Torvalds — is needed at their project. Perhaps not, but some central disciplinary intelligence is needed. With no Torvalds on the scene, it’s not clear who’s responsible for such discipline at OpenStack. But let’s give OpenStack a chance to mature and show us how it addresses the issue.

OpenStack の支持者たちは、すぐに Linux と対比したがるが、それは時期尚早である。Linux は困難なエクスペリエンスを介して、すでに存在するものを補完する、プロセスとコードだけを追加するという、カーネル開発プロセスのための強制的な規律を創りだした。コードのコントリビューター/コミッター/スポンサーといった、長いリスト(その多くがライバルでありアジェンダを戦わせている)を伴う OpenStack が、将来の拡張に対して、そのような規律や趣意を提示するかと言えば、それは、まだ、明らかになっていない。このプロジェクには理解ある独裁者が、すなわち Linus Torvalds のような人が必要だと、チームリーダーたちが言っているのを聞いたことがある。おそらく、そのような人物はいないだろうが、その中心において、規律をインテリジェントに取り扱う機能は必要だ。そのような、Torvalds がいない現実において、OpenStack の規律に対して、誰が責任を持てるかといえば、それも不明確である。しかし、OpenStack には成熟のチャンスを与えるべきであり、そうすれば、問題への取り組み方も、明らかにしてくれるだろう。

Likewise, it’s hard to get past the simple quantitative measures to see how the new foundation and its development process are really working. We know OpenStack now has over one million lines of code, 231 company members, 238 unique contributors to the Grizzly release, etc. But the project is also taking on a much more international flavor, with members from 121 countries. In fact, the next OpenStack Summit will meet in November in Hong Kong — the first to take place outside the U.S.

それと同様に、定量的な測定をシンプルに行うだけで、この新しいファンデーションと、その開発プロセスが、適切に機能しているのかを確認するのも難しい。私たちが知っている範囲では、OpenStack は 100万行以上のコードを有し、231社のメンバーが参加し、238人のコントリビュータにより Grizzly などをリリースしている。しかし、それよりも、このプロジェクトは 121ヶ国からのメンバーが参加するという、はるかにインターナショナルなフレーバーに満ちているのだ。実際のところ、次回の OpenStack サミットは、11月の Hong Kong が予定されているが、アメリカ以外での初めての開催となる。

Chinese interest in OpenStack is huge because it opens wide the door to cloud computing. Developers at the Chinese firm Sina, previously contributors to the project, have helped form the China Open Source Cloud League, which adds more contributors to the project, according to Curry.

OpenStack は、クラウド·コンピューティングへのドアを大きく開くため、China の関心も大きく膨らんでいる。Curry によると、このプロジェクトに以前からコントリビュートしている、China 企業である Sina は、さらに多くの人々を集めるための、China Open Source Cloud League を形作ろうとしている。

In addition to its greater international focus, there’s another sign of growing OpenStack maturity. Each subproject of OpenStack holds an election every six months among active contributors to decide who should serve as technical lead of the project, a key position. No changes in these posts would suggest that one company’s or one faction’s influence was sufficient to maintain the same lead indefinitely. For example, early on, Rackspace and Nebula technology execs dominated these positions because Rackspace was a co-founder and organizer, as were the founders of Nebula, who came out of NASA.

こうした、素晴らしいインターナショナル・フォーカスに加えて、OpenStack の成熟度を示す別の兆候がある。OpenStack はにおける個々のサブ・プロジェクトは、このプロジェクトのテクニカル・リードという、重要なポジションを務めるべき人を、積極的なコントリビューターの中から選ぶため、半年ごとに選挙を実施している。このポストに変化がないということは、一社もしくは一派閥が、永遠に変わらないリードを維持するだけの、充分な影響力を行使していたと示唆される。たとえば、OpenStack の黎明期において、一連のポジションが Rackspace とNebula の技術幹部たちに独占されていたのは、Rackspace が Co-Founder であり、NASA から生じた Nebula に Founder たちが居たからである。

In April, Russell Bryant of Red Hat replaced Vishvananda Ishaya of Nebula, who had served as technical lead of the Nova compute project for 2.5 years. In addition, Dan Wendlandt, of the software-defined networking firm Nicira, was the technical lead on the Quantum networking project for a year, with Nicira acting as a major contributor. After Nicira was acquired by VMware, a competitor of OpenStack, Nicira remained a contributor but Wendlandt was replaced by Marshall McClain of Dreamhost. In other words, what might have been a narrow band of leadership reflecting company interests has gradually given way to broader leadership, suggesting a meritocracy of regular elections is at work.

この 4月には、Nova プロジェクトのリードが、Nebula の Vishvananda Ishayaから  Red Hat の Russell Bryan に替わった。Ishaya は、2年半にわたって、このテクニカル・リードを務めてきたのだ。また、SDN の企業である Nicira の Dan Wendlandt は、主要コントリビューター Nicira としての立場から、1年間にわたり Quantum ネットワーク・プロジェクトのテクニカル・リードを務めていた。そして Nichira は、OpenStack のライバルである VMware に買収された後もコントリビューターとして残っているが、Wendlandt のポジションは Dreamhost の Marshall McClain へと移行した。言い換えれば、企業の利益を反映する、狭い視野によるリーダーシップから、より広範なリーダーシップへと、徐々に変化しているのだ。これも、定期的な選挙の結果が示唆するものなのだろう。

In three years, OpenStack has come a long way in both its internal organization and its acceptance in the world. It’ll be up to the company’s current management team to achieve additional milestones going forward.

この 3年の間に、組織の内部において、そして、外側の世界において、長い道のりを歩むことで、OpenStack は受け入れられるようになってきた。 それにより、この先のマイル・ストーンを達成するまで、現行のマネージメント・チームは支持を受け続けるだろう。

Says Chris Kemp, former CIO of NASA and CEO of OpenStack firm Nebula: "It’s hard to find a computer company, with the exception of Amazon, that’s not part of OpenStack. It’s occupying a huge void that needed to be filled… Everyone agrees, the next 25 years of computing should be open."

NASA の CIO を努め、いまでは OpenStack を支持する Nebula の CEO である Chris Kemp は、「Amazon を例外として、OpenStack に参加していないコンピュータ会社は、なかなか見つからないはずである。それにより、満たされるべき、巨大な空間を占有できるようになった。 これから 25年の間に、コンピューティングはオープンになるといいう考え方に、誰もが同意している」と、発言している。

OpenStack Grizzly Has SDN TeethCharles Babcock | April 05, 2013

ーーーーー

openstack-55aこの 4月に、『 そこの社長さん、これまでの やり方じゃ、企業向けソフトは売れませんよって! 』という抄訳をポストしましたが、そこには、こんなことが書いてあります。 ーーー クラシカルなセールス・モデルとは、組立ラインの経済から生じた、ある種の不自然な結果である。 製造業という、パーツを構築する世界では、製品を完成させるためにアセンブリを行い、それらを倉庫から出荷し、収益を得るためにセールスとマーケティングに依存してきた。こうした方式により、自動車/医薬品/化粧品/書籍/食品/飲料などの製品が、長きにわたり構築され、販売されてきた。しかし、このクラシカルなモデルを、エンタープライズ·ソフトウェアに当てはめても、それは失敗の運命にある。ーーー 中国における Android の爆発的な成長からは、洗練された多国籍企業であっても、なかなか乗り越えられないテリトリーの壁を、オープンソースがやすやすと突破していった様子がうかがい知れます。Linux と Android に続き、OpenStack がアジアの広大なスペースを満たしてくれることを期待しています。__AC Stamp 2

ーーーーー

<関連>

OpenStack に必要なのは有力ベンダーであり、インターオペラビリティではないのだ!
Rackspace が Sony を支援 : PlayStation 用の OpenStack プライベート・クラウド?
OpenStack が3歳になった : 素晴らしく成長したが、まだまだ頑張らねば!
Rackspace と CERN が推進する OpenStack ハイブリッド戦略とは?
VMware と Ubuntu が連携 : OpenStack とのインターオペラビリティ
Linux という静かなる存在と、想像を絶する 12 の金字塔

VMware と Ubuntu が連携 : OpenStack とのインターオペラビリティ

Posted in OpenStack, VMware by Agile Cat on April 23, 2013

VMware Adds Interoperability With Ubuntu OpenStack Cloud
http://wp.me/pwo1E-60F

Charles Babcock| April 18, 2013
http://www.informationweek.com/cloud-computing/infrastructure/vmware-adds-interoperability-with-ubuntu/240153156

_ Information week

The next Ubuntu release, coming soon, will include VMware plug-ins for the Quantum networking platform in OpenStack.

もう直と言われている、次期 Ubuntu のリリースだが、OpenStack の Quantum  ネットワーク・プラットフォームに対応する、VMware のプラグインが含まれるようだ。

VMware has contributed plug-ins to the OpenStack Project that guarantees the project’s networking platform will recognize and work with virtual machines running under VMware’s vSphere management environment and VMware’s Nicira Network Virtualization Platform.

VMware は、OpenStack のプロジェクトに対して、いくつかのプラグインをコントリビュートしてきた。それは、OpenStack プロジェクトのネットワーク・プラットフォームが、VMware における vSphere のマネージメント環境および Nicira Network Virtualization Platform で動作する仮想マシンを認識し、また、協調動作することを保証するものである。

VMware acquired startup Nicira last July for $1.26 billion and has made its NVP the basis of future virtualized networking in what it terms "the software-defined data center." The Network Virtualization Platform from Nicira, a leader in OpenFlow network protocol concepts, is also the basis for the Quantum networking platform in OpenStack. Nicira was a heavy contributor to OpenStack before the acquisition, and it remains one now. At the OpenStack Summit on Tuesday, VMware gave these contributions a particular cast. Through close collaboration between Canonical and VMware, they will work inside the Ubuntu distribution of OpenStack, according to VMware’s VP of vSphere product management Joshua Goodman.

昨年の7月に、VMware は $1.26 billion を費やして、スタートアップである Nicira を買収した。そして、同社が Software Defined Data Center と定義する、将来の仮想ネットワークの基盤として、Nicira の NVP を位置づけている。Nicira は OpenFlow ネットワーク・プロトコル・コンセプトのリーダーでもある。 そして、同社から提供される、この Network Virtualization Platform は、OpenStack における Quantum ネットワーキンク・プラットフォームの基盤でもある。 VMware に買収される以前の Nicira は、OpenStack における重要なコントリビュータであり、それは、今も継続している。そして、火曜日(4/16)の OpenStack Summit で VMware は、それらのコントリビューションに特別な役割を与えた。VMware の VP of vSphere Product Management である Joshua Goodman によると、Canonical と VMware は、その緊密なコラボレーションを介して、OpenStack の Ubuntu のディストリビューションに手を加えてきた。

Suse Linux and Red Hat also have distributions of OpenStack. Red Hat’s KVM hypervisor is the one native to the OpenStack cloud open source code. Suse Linux is often cited as the version that works most closely with Windows Server and its hypervisor, Hyper-V. Both are keen competitors of VMware’s ESX Server.

SUSE LINUX と Red Hat も、OpenStack ディストリビューションを持っている。 Red Hat の KVM ハイパーバイザーは、OpenStack クラウド・オープンソース・コードに対するネイティブである。 SUSE LINUX は、Windows Server および、そのハイパーバイザーである Hyper-V と密接に連携するバージョンとして、頻繁に引用されている。そして、どちらも、VMware の ESX Server に対する強力なコンペティタである。

The move also reflects VMware’s growing realization that it is likely to need to live with many OpenStack implementations in the future, despite its early hopes that its own cloud software stack, the vCloud Director suite, would be the basis of private and public clouds everywhere. The collaboration with Canonical gives it an OpenStack partner that is less an immediate competitor than either Red Hat or Suse.

この動向は、VMware が達成したいと考える、未来像にも影響を与える。つまり、その初期で期待していた OpenStack 独自のクラウド·ソフトウェア·スタック(すべてのプライベート/パブリック・クラウドの基礎となる vCloud Director スイートを望んでいた)ではなく、数多くの OpenStackの 実装と共存していく可能性が高いことを意味する。Canonical とのコラボレーションにより、OpenStack パートナーに与えるものが生じるが、 Red Hat や Suse と比べれば、その影響は少ないものとなる。

VMware contributed the plug-ins for the Grizzly release of OpenStack, which came out April 4. Canonical has not yet included Grizzly in its version of OpenStack, but it plans to do so by the end of the month.

VMware は、4月4日にリリースされた、OpenStack Grizzly 用のプラグインも提供している。 現時点では、Canonical は Grizzly に対応したバージョンを持たないが、今月の末までには、対応する計画だという。

On Wednesday, Martin Casado, founder of Nicira and now chief architect of networking at VMware, posted a blog on the VMware website reading, "The transformation to the software-defined data center will take many forms, and VMware understands that many customers will want to piece together different technologies based on their requirements… "

この水曜日に、Nicira の Founder であり、VMware の Chief Architect of Networking でもある Martin Casado は、「 Software Defined Data Center に切り替えていく道筋には、いくつかの形態がある。 そして、数多くのカスタマたちは、その要件にしたがって、それぞれのテクノロジーを組み合わせたいきたいはずだと、VMware は理解している」と、VMware Web サイトのブログにポストしている。

He said VMware is committed to having its virtualization environment work with OpenStack, despite perceived competition between them, and VMware has "almost doubled the number of developers working on OpenStack" compared to Nicira’s previous level of contribution. Through its Nicira-acquired developers VMware was among the top ten contributors of code to the Grizzly release, he added.

彼の発言によると、OpenStack の仮想化環境における競合は理解しているが、そこに対して、VMware はコミットしていくことになる。そして、これまでの Nicira によるコントリビューションと比較して、VMware は「 OpenStack に対して 2倍のデベロッパーを投入している」と発言している。さらに、Nicira が獲得したデベロッパーを介して、VMware は Grizzly リリースに対して、Top-10 に入るだけのコードをコントリビュートしていると、彼は付け加えている。

[ Want to learn more about how VMware plans to work with the open source cloud project OpenStack? See VMware Does Complicated Dance With Open Source Code]

ーーーーー

imageOpenStack と Nicira、そして、VMware と Nicira。 この三者の関係が、これから、どのように整理されてくるのかと考えると、興味が尽きませんね。 昨年の7月に、『 VMware の言うクラウド選択の自由と、Nicira の買収は矛盾しないのか?』という抄訳をポストしましたが、その後に、VMware の OpenStack 参加があり、PayPal が VMware から OpenStack へ移行するという話まで出てきています。 その一方で Ubuntu は、中国政府との提携を進めるという、とても目を引く動きを見せています。 次には、どのような展開が待ち受けているのでしょうかね? image

ーーーーー

<関連>

VMware が OpenStack に参加って マヂ ですか?
ちょっと待ってね VMware さん – from OpenStack
待たせしました VMware さん – from OpenStack
OpenStack Summit から学ぶべき、5つのポイントとは?
Microsoft クラウド・パートナーが、そのメニューに OpenStack を加えた!
VMware から OpenStack へ : PayPal が 8万台のサーバーを移行させる

ネットワークの仮想化へ向けた論証 – Ben Cherian

Posted in .Selected, Network, OpenFlow, SDN, Virtualization by Agile Cat on March 7, 2013

Making a Case for Network Virtualization
http://wp.me/pwo1E-5J2

Ben Cherian, Chief Strategy Officer, Midokura – January 24, 2013
http://allthingsd.com/20130124/making-a-case-for-network-virtualization/

_ all things D

At the beginning of this century, server virtualization burst onto the IT scene and changed the way modern IT organizations think about server hardware. The basic concept behind server virtualization is that multiple “virtual” servers can be run on a single physical server. This consolidation of servers resulted in much higher utilization of physical servers, which dramatically reduced the capital expenditure (capex) costs required to provide IT services. Using fewer physical servers also lowered power, cooling and datacenter space requirements. Other indirect benefits were increased agility, since the IT department could provision a server in minutes or hours versus the weeks and months it used to take to procure, set up and turn on new physical servers.

今世紀の初めに忽然として登場したサーバーの仮想化が、ハードウェア・サーバーを検討している近代的な IT 組織の、考え方を変えてしまった。 サーバーの仮想化を背後から支える基本概念は、単一の物理サーバー上で多数の仮想サーバーを走らせらるというものである。 このサーバー・コンソリデーションは、物理サーバーの有用性を大幅に高め、IT サービスの提供に必要とされる CAPEX(capital expenditure)を劇的に削減することになった。 さらに、使用する物理サーバーの数を減らすことで、使用電力および、冷却のコスト、そして、必要とされるデータセンター・スペースも引き下げられた。 その他の間接的なメリットしては、IT 部門が数分あるいは数時間で、サーバーをプロビジョニングできるようになるという、アジリティが挙げられる。それに対して、仮想化が始まる前は、新しい物理サーバーを入手し、設定し、電源を入れるまでに、数週間から数ヶ月が必要だったはずだ。

Image copyright Johannes Kornelius

By all accounts, server virtualization adoption has been extremely successful. One look at VMware’s revenue numbers and there’s no doubting this fact. In the early 2000s, the predominant question that many in IT asked was, “Why should I virtualize?” Today, the predominant question you’ll hear is, “Why can’t the servers be virtualized?”

誰に訊いても、サーバーの仮想化に関する適用は、素晴らしい成功を収めてきた。 VMware の収益を一目見れば、この事実を疑わなる。 2000年代の初期には、IT に従事する多くの人々が、「なぜ 仮想化すべきか?」という質問を繰り返していた。 そして、いま、人々が繰り返す質問は、「なぜ サーバーを仮想化できないのか?」である。

The rise of self-service IT

We’re going through a similar paradigm shift today with self-service IT. Internal business units want the breadth of services and speed of provisioning that they can get outside of the firewall through cloud service providers like Amazon Web Services. In response, forward-thinking IT departments have been changing their traditional role into one that looks more like a service provider and have begun offering a full menu of solutions to their constituents. One of the staples on the menu is a private Infrastructure-as-a-Sevice (IaaS) cloud offering. A few concrete business drivers underlying this offering are:

いま、私たちは、セルフ・サービスの IT を用いて、そのときと同様のパラダイム・シフトを体験している。 社内のビジネス・ユニットが望むものは、幅広いサービスの選択肢と、プロビジョニングのスピードであるが、たとえば Amazon Web Services などのクラウド・サービス・プロバイダを介して、それらをファイヤー・ウォールの外側で得ることができる。 それに応えるかたちで、前向きな IT部門は、サービス・プロバイダーのような業者に、従来からのロールを移行している。 そして、彼らが構成する要素の中で、フルメニューのソリューションを提供し始めている。 そのメニューに欠かせないものとして、プライベート IaaS クラウドの提供がある。 この提供物の基礎となり、また、具体的にビジネスを推進していくものは、以下のとおりである:

  • Fine-grained control over the infrastructure which lowers risk and increases ability to deal with compliance concerns
  • A lower cost when compared to external services like Amazon
  • Lowered operational expenditures with regard to provisioning resources
  • A much faster provisioning speed than internal IT typically offers
  • Better disaster recovery options
  • Increased application availability
  • コンプライアンにおける関心事を取り扱うための、インフラストラクチャの制御。それを微調整することで、リスクを低減し、能力を増大していく
  • Amazon のような外部のサービスに対抗し得る、低コストの実現
  • リソースのプロビジョニングに関連する、運用コストの低減
  • 一般的な社内 IT よりも迅速な、プロビジョニングのスピード
  • 災害からのリカバリーに関する、より優れた選択肢
  • アプリケーションの可用性を向上させる

Elements of an IaaS cloud

There are four elements needed to build an IaaS cloud: a cloud management system, compute (also known as the hypervisor), storage and networking. The cloud management system handles all the provisioning and orchestration of the underlying compute, storage and network components. Examples of such systems are OpenStack, Citrix CloudStack, Eucalyptus and VMware’s Vsphere product.

IaaS クラウドを構築するには、マネージメント・システムおよび、コンピューティング(ハイパーバイザー)、ストレージ、そしてネットワークという、4つの要素が必要とされる。 マネージメント・システムにより、すべてのプロビジョニングとオーケストレーションが処理され、それが、コンピューティング、ストレージ、そしてネットワークの基礎となる。 このようなシステムの例としては、OpenStack および、Citrix CloudStack、Eucalyptus、VMware Vsphere といったものが挙げられる。

For compute, storage and networking, cloud architects look for solutions that linearly scale out (adding new capacity incrementally) rather than scaling up (buying bigger devices). This approach keeps costs low by consistently maximizing utilization. Even if cost weren’t an issue, this scale out approach is highly favored because it increases availability and reduces service interruptions of your cloud. In a well-thought distributed IaaS design, a single large device would never be an integral component of your cloud. Adhering to distributed design philosophies is a key reason why cloud service providers can consistently achieve very high levels of availability.

コンピューティング、ストレージ、ネットワークに関しては、クラウド・アーキテクトがソリューションを探すことになるが、それらはスケールアップ(大容量デバイスの購入)ではなく、リニアにスケールアウト(キャパシティの追加)していくものになる。このアプローチにより、最大の有用性を連続して保ち、コストを低く抑えていくことが可能になる。たとえ、コストが問題視さればいケースでも、このスケールアウトのアプローチは、クラウドの可用性を高め、停止を抑制するため、必ず好まれるはずだ。あなたのクラウドが、分散 IaaS デザインを用いて適切に構成されているなら、個々のデバイスを大容量化する必要性も、もはや無いはずだ。 分散デザインは、クラウド・サービス・プロバイダーが、きわめて高レベルな可用性を、安定して供給するために、欠かすことのできない考え方となっている。

Another item cloud architects look for are products that can integrate with the cloud management systems so that they are fully automated. Scaling out and automating compute is a known problem and all the cloud management systems solve it with ease. As for cloud storage, there are now great distributed options like Ceph, SolidFire and OpenStack Swift that linearly scale out and can be easily automated.

また、クラウド・アーキテクトは、クラウドを完全に自動化するために、クラウド・マネージメント・システムとの統合が可能なプロダクトも、探し出さなければならない。コンピューティングのスケールアウトと自動化は、広く認識されている問題であるが、すべてのクラウド・マネージメント・システムにより、容易に解決できるものでもある。 クラウド・ストレージに関しては、Ceph および、SolidFire、OpenStack Swift といった、分散化のための素晴らしい選択肢が提供されている。そして、それらを用いることで、リニアなスケールアウトと、容易なオートメーションが実現されていく。

Networks are hard to provision and scale

imageThese newly minted cloud architects are beginning to realize something that those in the cloud service provider business have known for a while. Network devices weren’t designed to be automated, and they definitely weren’t designed to be provisioned at the granularity and high-churn rate than IaaS clouds demand of them. Also, some network devices, instead of linearly scaling out as demand increases, tend to adopt a scale up model.

これらの、新たに誕生すべきクラウド・アーキテクトちは、クラウド・サービス・プロバイダー事業者が取り組んできた、何らかのものを理解し始めている。 まず、ネットワーク・デバイスは、自動化に対応するようデザインされていないことが挙げられる。そして、プロビジョニングする際の微調整にも対応せず、また、IaaS クラウドが要求するネットワークの組み換えにも対応できなかった。 さらに言えば、いくつかのネットワーク・デバイスは、要求が増大するときに、リニアにスケールアウトせず、スケールアップする傾向のある、モデルとして提供されている。

Networks aren’t flexible enough for cloud requirements

A common use case for an IaaS cloud is disaster recovery, which often requires the recreation of complex network topologies. This can be problematic because that typically would require the physical network to be purpose built for that specific disaster recovery scenario, thereby eliminating the cost benefits and general purpose nature of the IaaS cloud. Another very common use case is migrating existing applications to the cloud. Many applications are reliant on very specific network design patterns. These apps would pose problems if they were moved to the cloud and might even have to be rewritten to fully operate in a cloud environment.

IaaS クラウドにおける共通ユース・ケースは DR であり、複雑なネットワーク・トポロジーの再構築が頻繁に要求される。 それが問題になり得るのは、特定の DR シナリオのための物理ネットワークが、一般的には要求されるからであり、それにより、IaaS クラウドの費用対効果と多目的性が阻害されている。もう1つの、きわめて一般的なユース・ケースは、既存アプリケーションの、クラウドへの移行である。 そして、数多くのアプリケーションが、特定のネットワーク・デザイン・パターンに大きく依存している。もし、そのようなアプリがクラウドに移行されると、問題を引き起こすかもしれない。そして、さらに、クラウド環境で完全に稼働させるために、書き直しが必要になるかもしれない。

Enter overlay-based network virtualization

Overlay-based network virtualization is a technology that allows cloud users to provision virtual network devices such as virtual switches, virtual routers, virtual firewalls and virtual load balancers. These virtual network devices can then be connected to VM’s as well as other virtual network devices to create complex network topologies. Since these virtual devices live in software, the underlying network (a.k.a. the physical network) only needs to be an IP network which allows all the compute hosts to see each other. Two leading examples of overlay-based network virtualization solutions are Midokura’s MidoNet and Nicira’s Network Virtualization Platform. These particular solutions have an added benefit that they are designed to be fully distributed; that means the scaling model is linear and can be scaled out incrementally as demand increases. They are also integrated with cloud management solutions so that virtual network device provisioning is automated. Those who spent their lives deploying production clouds think of overlay-based network virtualization as the best way to handle networking for cloud environments.

オーバーレイ・ベースの仮想ネットワークは、仮想化されたスイッチ/ルーター/ファイアウォール/ロードバランサーいった仮想ネットワーク・デバイスを、クラウド・ユーザーにプロビジョニングさせるためのテクノロジーである。 それらの仮想ネットワーク・デバイスは、その後に VM に接続されるだけではなく、複雑なネットワーク・トポロジーを構成するために、その他の仮想ネットワーク・デバイスとも接続される。 それらの仮想デバイスはソフトウェアとして機能し、また、基本的なネットワーク(物理ネットワークのこと)は、すべてのホスト・コンピュータが相互に存在を確認するための、IP ネットワークとしてのみ必要となる。 このオーバーレイ方式をベースとした仮想ネットワーク・ソリューションの、2つの先進的な事例としては、Midokura の MidoNet と Nicira の Network Virtualization Platform が挙げられる。この種のソリューションは、完全な分散デザインという、付加的なメリットを提供する。 つまり、リニアに伸びるスケーリング・モデルのことであり、要求の増大に応じた段階的なスケール・アウトを実現していく。また、それらは、クラウド・マネージメント・ソリューションとも統合されるため、仮想ネットワーク・デバイスの自動的なプロビジョニングにも対応できる。 それらのソリューションは、オーバーレイ・ベースの仮想ネットワークの方式でディプロイされた、実運用クラウド環境に配置されるため、クラウドのネットワークを操作する上で最適な方式となる。

Predictions and prognostications

Now it’s time for me to put on my Nostradamus hat. Server virtualization adoption has grown at an extremely fast pace since its debut and has fundamentally changed the IT landscape. The next phase is widespread self-service IT adoption, and consequently, the proliferation of IaaS clouds. These concepts, as well as the technology behind them, will become essential to how the modern enterprise will deliver IT services. Because overlay-based network virtualization solves the very real problems stated above, it will soon become the preferred method of handling cloud networking. Now is a great time to start researching overlay-based network virtualization to better understand how it will fit within your IT future.

いまこそ、Nostradamus のように予言すべきだろう。 仮想サーバーの適用は、そのデビュー以来、きわめて速いペースで増大し、IT の基本となる風景を大きく変えてきた。 次のフェーズは、広範囲におよぶセルフ・サービス IT の適用であり、それに続いて IaaS クラウドの拡散が生じてくる。 その背景となるコンセプトだけではなく、そのためのテクノロジーも、近代的なエンタープライズが IT サービスを提供するときに、欠かすことにできない本質になるだろう。 オーバーレイ・ベースの仮想ネットワークは、そこで生じるきわめて現実的な問題を解決するため、クラウド・ネットワークの運用における、最も好ましい方式として、評価される日も間近のはずだ。オーバーレイ・ベースの仮想ネットワークが、あなたの IT の未来にフィットすることを理解するためにも、いまこそ調査を開始すべきである。 その時が やってきた。

Ben Cherian is a serial entrepreneur who loves playing in the intersection of business and technology. He’s currently the Chief Strategy Officer at Midokura, a network virtualization company. Prior to Midokura, he was the GM of Emerging Technologies at DreamHost, where he ran the cloud business unit. Prior to that, Ben ran a cloud-focused managed services company.

ーーーーー

TAG indexMidokura の Ben Cherian さんが、All Things D に寄稿した記事です。なぜ、仮想化が必要なのか? どのような仮想化が必要なのか? ・・・という視点で、これまでに私たちがたどってきた道筋の延長線上に、SDN(Software Defined Networks)が待っているのですよと、とても分かりやすく説明してくれます。SDN という言葉が指し示す範囲は広大であり、また、広すぎるが故に、理解し難かったのですが、オーバーレイ・ベースという考え方と、ソフトウェアとして機能する仮想デバイスという概念が、とても重要なのだと思えてきました。image

ーーーーー

<関連>

Midokura : SDN の巨人たちを標的に捉える
Midokura と SDN : どのように Layer 2-4 をサポートすべきか_1
Midokura と SDN : どのように Layer 2-4 をサポートすべきか_2
Apigee は、テレコムのための SDN を考える
Cisco が占有する スイッチ と ルーターの世界 : それを示す1枚のチャート

みんなが 注目の SDN/OpenFlow 特集

Posted in .Selected, OpenFlow, SDN by Agile Cat on December 14, 2012

昨年のおさらいから、イケイケの Midokura まで ・・・
http://wp.me/pwo1E-5mn

Agile_Cat_2012

imageやはり、今年のキーワードとして、SDN(Software-Defined Network)と OpenFlow は図抜けた存在だったと思います。 どちらかと言うと、話題としては OpenFlow が先行し、それを SDN が追いかけるという展開でした。

また、この領域におけるスタートアップである Nicira を VMware が、そして、Vyatta を Brocade がというふうに買収劇が進行し、いま現在は、Juniper が Contrail を買収という話も浮上してきています。 来年も、まだまだ、いろんな動きがあるだろうと思われる、SDN と OpenFlow の世界です。

2011:
Oct   4:
OpenFlow 関連ポストへのリンク集(20本強)
Nov 16: Juniper がデベロッパーに対して、OpenFlow ソースコードを提供開始
Dec 19: OpenFlow 1.2 が ONF の評議会で承認された – NTT Com も委員に

2012:
Jan 30:
Creation Line が展開する統合戦略とは?
Jan 11: OpenStack における SDN コネクションを探求する _1
Jan 13: OpenStack における SDN コネクションを探求する _2
Apr 11: Google 先生の OpenFlow 講座 – DC 間接続を低コストで達成するには
Apr 17: Google と OpenFlow と SDN について本音を語ろう – Urs Holzle
Apr 25: VMware の考える SDN は、OpenFlow だけでは完成しない
May 17: VMware が考える、ソフトウェア定義によるデータセンターとは?
Jun 25: OpenFlow @ Interop 2012 のマトメ・ページ
Jun 26: Google の OpenFlow バックボーンは、どのように機能しているのか_1
Jun 28: Google の OpenFlow バックボーンは、どのように機能しているのか_2
Jul   2: VMware は OpenFlow を静観する_1
Jul   4: VMware は OpenFlow を静観する_2
Jul   6: VMware は OpenFlow を静観する_3
Jul 24: VMware が Nicira を $1.26B を買収 : その背景にあるものは?
Jul 25: VMware の言うクラウド選択の自由と、Nicira の買収は矛盾しないのか?
Aug   7: Intel が思い描く、コモディティ SDN の構想 _1
Aug   9: Intel が思い描く、コモディティ SDN の構想 _2
Sep 25: Midokura と SDN : どのように Layer 2-4 をサポートすべきか_1
Sep 27: Midokura と SDN : どのように Layer 2-4 をサポートすべきか_2
Sep 28: Apigee は、テレコムのための SDN を考える
Oct 25: Cisco は vCider を買収し、分散クラウドを加速する
Nov   6: Brocade が Vyatta を買収
Nov 13: Midokura : SDN の巨人たちを標的に捉える

ーーーーー

Agile_Cat_2012そして、SDN のスタートアップには、日本発のスタートアップである Midokura がいます。 世界の強豪たちにまじり、最先端の技術で戦い続ける Midokura は、Agile_Cat としても、応援していきたい対象です。 頑張れ、Midokura ! image

ーーーーー

<関連>

みんなが 期待の Open Cloud 特集
みんなが 注目の SDN/OpenFlow 特集
みんなの 先生 James Hamilton 特集
みんなを 支える Data Center 特集
2012 – 2013 海外 マトメ・ポストを、マトメてみました 62本
泣いて、笑って、驚いて、今年も暮れる WeekEnd 特集

Midokura : SDN の巨人たちを標的に捉える

Posted in .Selected, OpenStack, SDN by Agile Cat on November 13, 2012

SDN Startup Midokura Takes on IT Giants
http://wp.me/pwo1E-5aK

Posted by Andrew Conry Murray – October 18, 2012
http://www.networkcomputing.com/next-gen-network-tech-center/sdn-startup-midokura-takes-on-it-giants/240009335

_Network Computing

Software-defined networking just got a new player. Midokura is a startup that’s attacking network virtualization with an ambitious software platform called MidoNet that aims to upend the traditional networking market. Midokura announced its U.S. launch and its MidoNet software at the OpenStack developer conference in San Diego this week. It also announced MidoNet integration with OpenStack.

SDN の世界に、新しいプレーヤーが登場した。 Midokura は、従来からのネットワーク市場をひっくり返すという目的を持つ、MidoNet と呼ばれる野心的なソフトウェア・プラットフォームを用いて、仮想ネットワークにアタックするスタートアップである。 今週(10月中旬)のことだが、Midokura は San Diego で開催された OpenStack デベロッパー・カンファレンスで、アメリカにおける始動と、MidoNet ソフトウェアを発表した。そして、さらに、MidoNet とOpenStack のインテグレーションについても発表している。

clip_image001The MidoNet software, currently in beta, is designed to provide network virtualization to enable cloud providers and enterprises to build infrastructure as a service environments for either public or private clouds. Midokura was founded in 2010 in Japan. It has raised $5.5 million in venture capital, and has offices in Tokyo as well as in San Francisco and Barcelona.

MidoNet ソフトウェアは、現時点ではベータであるが、パブリック/プライベートのクラウドで、IaaS 環境を構築するクラウド・プロバイダーおよびエンタープライズに対して、仮想ネットワークを提供するためにデザインされている。 Midokura は、2010年に Japan で設立されている。同社は VC から $5.5 million を集め、また、Tokyo/San Francisco/Barcelona にオフィスを持っている。

Midokura’s approach embraces many of the general principles of SDN, including the abstraction of the physical network and software-driven, dynamic provisioning of network services. However, unlike some other SDN approaches, Midokura does not rely on a centralized controller or the use of the OpenFlow protocol. Instead, it creates a virtual network overlay on top of an IP-connected network. MidoNet software, which is designed to run on Linux servers, is deployed at the edge of the network and connected to a customer’s aggregation router. The software creates tunnels to pass traffic through the physical network devices.

Midokura のアプローチは、SDN における一般的原理を数多く取り入れるものであり、そこには、ネットワーク・サービスにおける、物理的ネットワーク/ソフトウェア駆動/ダイナミック・プロビジョニングなどが含まれる。 しかし、いくつかの SDN アプローチとは異なり、Midokura はセンタライズされたコントローラや、OpenFlow プロトコルの利用に依存していない。 それに代えて、IP 接続ネットワークのトップに、仮想ネットワーク・オーバーレイを提供する。 Linux サーバー上で走るようにデザインされた MidoNet ソフトウェアは、ネットワークのエッジにディプロイされ、また、顧客のアグリゲーション・ルーターに接続される。このソフトウェアは、物理的なネットワーク・デバイスを介して、トラフィックを受け渡すためのトンネルを作り出す。

"We push the intelligence to the edges of the network, which are the hosts running the software," says Ben Cherian, chief strategy officer at Midokura. "The hosts provide L2 and L3 services."

「私たちは、ソフトウェアを実行するホストとしての、ネットワーク・エッジにインテリジェンスをプッシュしていく。 それらのホストは、L2 と L3 のサービスを提供する」と Midokura の Chief Strategy Officer である  Ben Cherian は発言している。

This approach is similar to network virtualization that’s enabled by draft protocols such as VXLAN, backed by Cisco Systems and VMware, and NVGRE, backed by Microsoft and others.

このアプローチは、Cisco Systems と VMware が支援する VXLAN や、Microsoft などが進める NVGRE といった、ドラフト・プロトコルで実現される仮想ネットワークに類似している。

Midokura is nothing if not ambitious. In addition to competing against other network virtualization and SDN players such as VMware and Cisco Systems, and startups like Big Switch Networks and Embrane, the company is also going after F5 and Citrix, which provide higher-layer network services such as load balancing. Cherian says customers can use MidoNet’s own load balancing and firewall features and get rid of traditional vendors.

Midokura は、どう見ても、野心的である。 VMware や Cisco Systems といった仮想ネットワークと SDN のプレーヤーおよび、Big Switch Networks や Embrane といったスタートアップとの競合に加えて、ロードバランシングなどの高位層ネットワーク・サービスを提供する F5 や Citrix を、同社は追いかけている。 MidoNet を利用する顧客は、そのロードバランシングとファイアウォールの機能を利用することが可能であり、また、従来からのベンダーから離れられると、Cherian は発言する。

It’s bold talk from a tiny company, but boldness may be required to get noticed in an emerging market that’s already churning with startups and big-name vendors alike, each of which has its own technological approach to SDN.

それは、小さな会社の大胆な発言であるが、この新興成長マーケットで注意を引きつけるためには、こうした大胆さが必要なのだろう。 そこでは、SDN テクノロジーに関する自身のアプローチを持つ、スタートアップやビッグネームが、すでに激しく動き回っている。

Aside from the competitive landscape, Midokura also has to fight for what is, at present, a limited customer base of cloud service providers and very large enterprises that have a pressing need to build multitenant networks that can scale on demand. The wider market of general enterprise customers have an interest in building private clouds and streamlining network provisioning, but they take a cautious approach to re-architecting their networks. As Mike Fratto pointed out in a Network Computing column this spring, "I bet most companies aren’t going to seriously consider SDN for some years–a long enough time for the VC money to dry up and larger vendors to pick up the carcasses."

競合という風景から離れても、いまの Midokura は、クラウド・サービス・プロバイダと大手エンタープライズにおける、限定された顧客ベースを獲得するために戦わなければならない。そこでは、オンデマンドでスケールする、マルチ・テナント・ネットワークの構築が、差し迫ったニーズとなる。 一般的なエンタープライズ・カスタマのための、広範囲なマーケットは、プライベート・クラウドの構築と、ネットワークの合理化に集約されるが、自身のネットワークを再構築するという点において、用心深いアプローチが取られる。同様に Mike Fratto は、今年の春の  Network Computing のコラムで、「 大半の企業は、この数年の間は、SDN について真剣に考えないと確言する。それは、VC の資金を干上がらせるに充分な時間であり、また、大手ベンダーが死体を拾い上げることになる」と、指摘している。

Midokura knows this. "Our primary focus is cloud service providers," said Cherian. "Enterprises have to grapple with culture and other issues. I think it will take them longer to figure out how to use self-service IT in the enterprise."

そのことは、Midokura も知っている。 「 私たちは、クラウド・サービス・プロバイダに、一番にフォーカスしていく。エンタープライズは、そのカルチャーと、それに関連する問題に取り組まなければならない。 エンタープライズにおけるセルフサービスの IT を、どのように使うべきかと、彼らが理解するためには、もっと時間が必要だと思う」と、Cherian は発言している。

As mentioned, MidoNet is currently in beta. Midokura will make the software available to early customers, partners and developers. Cherian said the software would be generally available in a few months.

前述のとおり、いまの MidoNet は、ベータの段階にある。 Midokura は、アーリーアダプタとしてのカスタマ/パートナー/デベロッパーに対して、このソフトウェアを提供するだろう。Cherian は、この数ヶ月の間に、このソフトウェアを提供できると発言している。

ーーーーー

image以下のリンクにある、『Midokura と SDN : どのように Layer 2-4 をサポートすべきか_2』 では、Midokura の考え方が端的に語られています。 ーーー 興味深いことに、彼らは、センタライズされたコントロール・プレーンという、いま流行りの信仰に逆らうことを決め、また、大半のインテリジェンスをハイパーバイザ内に実装した。彼らは、Open vSwitch(OVS)カーネル・モジュールを、スイッチング・プラットフォームとして使用するが( OVS は、すべての必要とされる L2-L4 機能の、実装を提供するという、私の主張を証明している)、 OpenFlow エージェントとセンタライズされたコントロール・プレーンを、自身で配布するソフトウェアで置き換えている。ーーー  おそらく、より本質的なところから SDN に取り組んでいるのが Midokura だと思います。 がんばれぇ~~~ image

ーーーーー

<関連>

OpenStack Essex のコントリビューターたちに感謝! – including MIDOKURA
Midokura と SDN : どのように Layer 2-4 をサポートすべきか_1
Midokura と SDN : どのように Layer 2-4 をサポートすべきか_2
OpenStack の検証プロジェクトが日本で始まる – Bit-Isle / TERRAS / Midokura

Cisco は vCider を買収し、分散クラウドを加速する

Posted in .Selected, Cisco, Network, OpenStack, SDN, Virtualization by Agile Cat on October 5, 2012

Cisco buys vCider to boost its distributed cloud vision
http://wp.me/pwo1E-4YJ

By
Barb Darrow – Oct 4, 2012
http://gigaom.com/cloud/cisco-buys-vcider-to-boost-its-distributed-cloud-vision/

_ Gigaom

vCider’s virtual networking smarts will help Cisco build distributed cloud infrastructure that ties into its own Open Networking Environment. The move is seen as a counter to VMware’s acquisition of Nicira.

vCider の仮想ネットワークにおける賢さは、Cisco が構築する分散クラウドインフラと、自身の Open Networking Environment の接続を、促進するものになるだろう。 この動きは、VMware による Nicira 買収へのカウンターのようにも見えてくる。

ーーーーー

Cisco is buying vCider, a specialist in virtual network overlay technology (and a former GigaOM Structure LaunchPad finalist). The move is a response to  VMware’s acquisition of Nicira and its software-defined networking technology in July which has strained the once close partnership between Cisco and VMware.

Cisco が買収する vCider は、仮想ネットワーク・オーバーレイ・テクノロジーのスペシャリストである(前回の GigaOM Structure LaunchPad のファイナリストでもある)。 そして、この動きは、7月に Nicira と SDN テクノロジーを買収した、VMware に対する回答でもある。 なぜなら、その買収劇により、Cisco と VMware を結んでいたパートナーシップに、歪が生じていたからである。

vCider’s technology works in much the same way as VXLAN, VMware’s attempt to get virtual machines to span dispersed data centers as part of the same local area network.

vCider のテクノロジーは、大まかなところで VXLAN と同じように機能する。 つまり、仮想マシンを用いることで、同一のローカルエリア・ネットワークの一部として、複数のデータセンターを分散させていこうとする、VMware の試みに似ている。

Cisco can use vCider’s expertise to build a unified yet distributed Cisco-based cloud. The networking giant will also integrate technology vCider used in its multi-tenant distributed virtual network controller into its work on the OpenStack Quantum network subsystem, according to a Cisco blog post announcing the deal, terms of which were not disclosed.

Cisco は vCider のテクノロジーを用いて、集約と分散という 2つの属性を持った、Cisco ベースのクラウドを構築できる。 さらに、このネットワーク界の巨人は、OpenStack Quantum ネットワーク・サブ・システムで、マルチ・テナント分散された仮想ネットワーク・コントローラを機能させるために、vCider のテクノロジーを統合するだろう。このことは発表されていないが、Cisco のブログ・ポストには、そのように記述されている。

Mountain View, Calif.-based vCider, as Stacey Higginbotham reported last year, aims to help companies, “span clouds while keeping security and compliance intact by installing software on a virtual machine instance in a cloud and then creating a mesh-like Layer 2 network that the administrator can control.”

Mountain View, Calif. をベースとする vCider は、昨年に Stacey Higginbotham がレポートしたように、『 クラウド上の仮想マシン・インスタンスに、ソフトウェアをインストールすることで、セキリティとコンプライアンスが損なわれないことを担保しながら、アドミンが制御できる、メッシュ上の Layer 2 ネットワークを構築するクラウド 』を目指す企業を支援してきた。

imageIn theory, vCider’s smarts will make it easier for Cisco to build easily distributed cloud infrastructure and incorporate that into Quantum. Quantum’s goal is to boost programmability of both virtual and physical networks that tie into Cisco’s own Open Networking Environment (ONE), according to the blog.

理論上は、vCider の賢さにより、Cisco は分散クラウド・インフラを容易に構築し、それを Quantum に取り込んでいくだろう。そのブログによると、Quantum の目標は、Cisco の Open Networking Environment(ONE)に接続される、物理/仮想ネットワークの双方において、プログラミング能力を引き上げることだとされている。

Cisco’s plans call for vCider to be integrated into Cisco’s Cloud Computing group which reports to CTO Lew Tucker. Cisco joined the OpenStack open-source cloud computing effort nearly two years ago and Tucker is vice chairman of OpenStack Foundation board.

Cisco のプランは、同社 CTO の Lew Tucker にレポートラインを持つ、Cisco Cloud Computing グループに、vCider を統合していくことである。 約 2年前から、Cisco は OpenStack OSS クラウド・コンピューティングに参加しており、また、Tucker は OpenStack Foundation ボードの Vice Chairman を務めている。

For more on the state of network come to Structure:Europe in Amsterdam on Oct. 16 and 17, to hear Nicira’s former CEO Steve Mullaney respond to the news.

さらなる詳細については、Structure:Europein Amsterdam on Oct. 16 and 17 に参加して欲しい。 そこでは、Nicira の前 CEO である Steve Mullaney が、このニュースに触れるはずだ。

Subscriber Content

 

 

 

ーーーーー

image名前は知っていましたが、どのような SDN を目指しているのかまでは、調べてことのない vCider です。 先ほど、急いで Web を見に行きましたが、すでに 『 vCider is now part of Cisco 』と書き換えられていました。 したがって、いまは Cisco のブログが頼りなのですが、この GigaOM の記事と比較して、それほど詳しい情報が記載されているとも思えません。 Cisco と vCider が、具体的に、どのような展開を見せるのかとなると、まだ、見えてこない状況です。 image

ーーーーー

<関連>

Apigee は、テレコムのための SDN を考える
Midokura と SDN : どのように Layer 2-4 をサポートすべきか_1
Midokura と SDN : どのように Layer 2-4 をサポートすべきか_2
Intel が思い描く、コモディティ SDN の構想 _1
Intel が思い描く、コモディティ SDN の構想 _2

 

Midokura と SDN : どのように Layer 2-4 をサポートすべきか_2

Posted in .Selected, Network, OpenFlow, SDN by Agile Cat on September 27, 2012

Midokura’s MidoNet: a Layer 2-4 virtual network solution
http://wp.me/pwo1E-4W4

Thursday, August 30, 2012
http://blog.ioshints.info/2012/08/midokuras-midonet-layer-2-4-virtual.html

image

初めての方は:Midokura と SDN : どのように Layer 2-4 をサポートすべきか_1

ーーーーー

Midokura’s MidoNet: a L2-4 virtual SDN

A month ago Ben Cherian left a comment on my blog saying “Our product, MidoNet, supports BGP, including multihoming and ECMP, for interfacing MidoNet virtual routers with external L3 networks.” Not surprisingly, I wanted to know more and he quickly organized a phone call with Dan Mihai Dimitriu, Midokura’s CTO. This is one of the slides they shared with me … showing exactly what I was hoping to see in a virtual networks solution:

1ヶ月前のことだが、Ben Cherian が「 私たちのプロダクトである MidoNet は、外部 L3 ネットワークと MidoNet 仮想ルーターをインタフェースさせるために BGP をサポートし、そこに Multihoming と ECMP を取り込んでいる」というコメントを、私のブログに残している。 当然のことながら、より多くのことを、私は知りたくなった。 そして、すぐに Ben は、Midokura の CTO である Dan Mihai Dimitriu との電話会談をセットしてくれた。 以下のスライドは、そのときに私たちがシェアしたものである。 それは、仮想ネットワークにおいて、私が確認したいと望んでいた、まさに、そのものである:

Typical MidoNet virtual network topology

As expected, they decided to implement virtual networks with GRE tunnels between hypervisor hosts. A typical virtual network topology mapped onto underlying IP transport fabric would thus like this:

期待していたように、彼らは、ハイパーバイザ・ホスト間に GRE トンネルを配置する、仮想ネットワークの実装を決定していた。基礎となる IP トランスポート・ファブリック上にマップされる、典型的な仮想ネットワークトのトポロジは、以下のようになるだろう:

MidoNet virtual networks implemented with commodity
compute nodes on top of an IP fabric

Short summary of what they’re doing:

彼らが行なっていることを、簡単に説明しておく:

  • Their virtual networks solution has layer-2 virtual networks that you can link together with layer-3 virtual routers.
  • Each virtual port (including VM virtual interface) has ingress and egress firewall rules and chains (inspired by Linux iptables).
  • Virtual routers support baseline load balancing and NAT functionality.
  • Virtual routers are not implemented as virtual machines – they are an abstract concept used by hypervisor switches to calculate the underlay IP next hop.
  • As one would expect in a L3 solution, hypervisors are answering ARP and DHCP requests locally.
  • The edge nodes run EBGP with the outside world, appearing as a single router to external BGP speakers.
  • 彼らの仮想ネットワーク・ソリューションは、Layer-2 仮想ネットワークを持っており、それにより、Layer-3 仮想ルーターとのリンクが実現される。
  • それぞれの仮想ポート(VM 仮想インターフェイスを含む)は、ファイヤーウォールのルールとチェーンに対して、入力を出力を有する。
  • 仮想ルーターは、ベースライン・ロード・バランシングと NAT の機能をサポートする。
  • これらの仮想ルーターは、仮想マシンとしては実装されない。 つまり、基礎となる IP Next Hop を計算するために、ハイパーバイザ・スイッチが用いる抽象概念となる。
  • L3 ソリューションで期待されるものとして、ローカルな ARP および DHCP リクエストに対する、ハイパバイザからの回答が提供される。
  • 外の世界との接点として EBGP を実行するエッジ・ノードは、シングル・ルーターとして、外部の BGP スピーカーから参照される。

Interestingly, they decided to go against the current centralized control plane religion, and implemented most of the intelligence in the hypervisors. They use Open vSwitch (OVS) kernel module as the switching platform (proving my claim that OVS provides all you need to implement L2-4 functionality), but replaced the OpenFlow agents and centralized controller with their own distributed software.

興味深いことに、彼らは、センタライズされたコントロール・プレーンという、いま流行りの信仰に逆らうことを決め、また、大半のインテリジェンスをハイパーバイザ内に実装した。彼らは、Open vSwitch(OVS)カーネル・モジュールを、スイッチング・プラットフォームとして使用するが( OVS は、すべての必要とされる L2-L4 機能の、実装を提供するという、私の主張を証明している)、 OpenFlow エージェントとセンタライズされたコントロール・プレーンを、自身で配布するソフトウェアで置き換えている。

MidoNet packet forwarding process

This is how Dan and Ben explained a day in the life of an IP packet passing through the MidoNet overlay virtual networks (I haven’t set it up to see how it really works):

以下は、MidoNet オーバーレイ仮想ネットワークを通過していく IP パケットが、どのような一生をたどるのかという視点で、Dan と Ben が説明してくれたものである(ただし、実際の動作に関して、私の方では確認していない):

Their forwarding agents (running in user space on all hypervisor hosts) intercept traffic belonging to unknown flows (much like the ovs-vswitchd), but process the unknown packets locally instead of sending them to central OpenFlow controller.

そこでは、MidoNet のフォワーディング・エージェント(すべてのハイパーバイザ・ホスト上のユーザー・スペースで実行される)が、未知のフローに属するトラフィックをインターセプトする(ほぼ、ovs-vswitchd と同じ方式)。しかし、それらのパケットはローカルで処理され、センタライズされた OpenFlow コントローラには送信されない。

The forwarding agent receiving an unknown packet would check the security rules, consult the virtual network configuration, calculate the required flow transformation(s) and egress next hop, install the flow in the local OVS kernel module, insert flow data in a central database for stateful firewall filtering of return traffic, and send the packet toward egress node encapsulated in a GRE envelope with the GRE key indicating the egress port on the egress node.

このフォワーディング・エージェントは、まず、セキュリティ・ルールをチェックすべき未知のパケットを受信する。そして、仮想ネットワークのコンフィグレーションを調べる。続いて、必要とされるフロー変換と、次のホップへ向けた出力を計算する。さらに、ローカルな OVS カーネル・モジュールに、対象となるフローをインストールする。そして、リターン・トラフィックに関する、ステートフルなファイヤーウォール・フィルタリングのための、センタライズされたデータベース内にフローデータを挿入する。最後に、GRE エンベロープ内でカプセル化された出力ノードへ向けて(出力ノード上の出力ポートを指し示す GRE Key を用いる)、対象となるパケットを送信する。

According to Midokura, the forwarding agents generate the most-generic flow specification they can – load balancing obviously requires microflows, simple L2 or L3 forwarding doesn’t. While the OVS kernel module supports only microflow-based forwarding, the forwarding agent doesn’t have to recalculate the virtual network topology for each new flow.

Midokura によると、このフォワーディング・エージェントは、可能な限り汎用的なフロー仕様を生成する。 つまり、ロード・バランシングは、はっきりとマイクロ・フローを要求し、また、シンプルな L2 および L3 の転送は行われない。 この OVS カーネル・モジュールは、マイクロフロー・ベースの転送だけをサポートするが、それぞれの新しいフローのための仮想ネットワーク・トポロジを、このフォワーディング・エージェントにより再計算する必要はない。

The egress OVS switch has pre-installed flows that map GRE keys to output ports. The packet is thus forwarded straight to the destination port without going through the forwarding agent on the egress node. Like in MPLS/VPN or QFabric, the ingress node performs all forwarding decisions, the “only” difference being that MidoNet runs as a cluster of distributed software switches on commodity hardware.

この、出力 OVS スイッチは、GRE keys を出力ポートにマップするために、いくつかのフローをプリ・インストールしている。 したがって、対象となるパケットは、出力ノード上のフォワーディング・エージェントを通過することなく、ディスティネーション・ポートへと向けてダイレクトに転送される。 MPL/VPN や QFabric と同様に、対象となる入力ノードにより、すべての転送が決定される。 そして、唯一の違いは、コモディティ・ハードウェア上の分散ソフトウェア・スイッチとして、MidoNet が実行される点にある。

Asymmetrical return traffic is no longer an issue because MidoNet uses central flow database for stateful firewall functionality – all edge nodes act as a single virtual firewall.

ステートフルなファイヤーウォール機能のために、MidoNet ではセンタライズされたフローデータ・ベースが用いられる。そのため、非対称のリターン・トラフィックという問題が、もはや生じることもない。つまり、すべてのエッジ・ノードは、単一の仮想ファイヤーウォールの役割を果たすことになる。

The end result: MidoNet (Midokura’s overlay virtual networking solution) performs simple L2-4 operations within the hypervisor, and forwards packets of established flows within the kernel OVS.

The end result: MidoNet (Midokura のオーバーレイ方式バーチャルネットワーク化解法)は、ハイパーバイザの中で、シンプルな L2-L4 オペレーションを実行する。そして、カーネル OVS の中で確立されたフローにより、パケットを転送していく。

Midokura claims they achieved linerate (10GE) performance on commodity x86 hardware … but of course you shouldn’t blindly trust me or them. Get in touch with Ben and test-drive their solution.

Midokura は、コモディティ x86 ハードウェア上で、ラインレート(10GE)のパフィーマンスを達成したと主張する。 しかし、もちろん、、、それを闇雲に信頼すべきではない。 Ben にコンタクトし、彼らのソリューションを試すべきである。

ーーーーー

Midokura と SDN : どのように Layer 2-4 をサポートすべきか_1

ーーーーー

image文中の 『 センタライズされたコントロール・プレーンという、いま流行りの信仰に逆らうことを決め、また、大半のインテリジェンスをハイパーバイザ内に実装した』という表現が興味深いですね。 以前に抄訳としてポストした Google 先生の OpenFlow 講座 – DC 間接続を低コストで達成する では、『OpenFlow がもたらすものは、ネットワークをアプリケーションのように振る舞わせることであり、センタライズされたコントローラの中に、インテリジェントに組み合わされたネットワーク・ギアを論理的に配置していく能力だ 』と明記されています。 Google のようなサービスと、一般的なエンタープライズ・サービスでは、同じ ” 仮想ネットワーク ” という言葉で括られても、その目的は随分と異なるものになるはずです。 だからこそ、SDN に多様性が生じるのでしょうし、その実装形態の1つとして、OpenFlow があるのだという見方が成り立つのでしょう。 とても難しい話ですが、頑張って追いかけていきたいと思います。

ーーーーー

<関連>

Intel が思い描く、コモディティ SDN の構想 _1
Intel が思い描く、コモディティ SDN の構想 _2
VMware の言うクラウド選択の自由と、Nicira の買収は矛盾しないのか?
VMware が Nicira を $1.26B を買収 : その背景にあるものは?
VMware の考える SDN は、OpenFlow だけでは完成しない

 

Midokura と SDN : どのように Layer 2-4 をサポートすべきか_1

Posted in .Selected, Network, OpenFlow, SDN by Agile Cat on September 25, 2012

Midokura’s MidoNet: a Layer 2-4 virtual network solution
http://wp.me/pwo1E-4Vq

Thursday, August 30, 2012
http://blog.ioshints.info/2012/08/midokuras-midonet-layer-2-4-virtual.html

image

Almost everyone agrees the current way of implementing virtual networks with dumb hypervisor switches and top-of-rack kludges (including Edge Virtual Bridging – EVB or 802.1Qbg – and 802.1BR) doesn’t scale. Most people working in the field (with the notable exception of some hardware vendors busy protecting their turfs in the NVO3 IETF working group) also agree virtual networks running as applications on top of IP fabric are the only reasonable way to go … but that’s all they currently agree upon.

間抜けなハイパーバイザ・スイッチと、ラックのトップに配置された即席の解決策Edge Virtual Bridging – EVB or 802.1Qbg – and 802.1BRを 含む)による、現在の仮想ネットワークがスケールしないことを、大半の人々が理解している。 また、フィールドで働く大半の人々も( ただし、NVO3 IETF ワーキング・グループで、いくつかのハードウェア・ベンダーが、自らの芝生を守ろうとしていることは、顕著な例外である)、IP ファブリックのアプリケーションとして動作する仮想ネットワークだけが、唯一の妥当な方式であることに同意しているが、、、それが、現時点における合意のすべてである。

Traditional VLAN-based virtual networks
implemented in the physical switches

Virtual networks implemented in the hypervisor
switches on top of an IP fabric

A brief overview of where we are

Cisco, VMware and Microsoft disappointingly chose the easiest way out: VXLAN and NVGRE are MAC-over-IP virtual networks with no control plane. They claim they need layer-2 virtual networks to support existing applications (like Microsoft’s load balancing marvels) and rely on flooding (emulated with IP multicast) to build the remote-MAC-to-remote-IP mappings in hypervisor virtual switches.

残念なことに、Cisco/VMware/Microsoft は、最も易しい方法を選択した。 つまり、VXLAN と NVGRE は、コントロール・プレーンを持たない MAC-over-IP 仮想ネットワークである。 彼らは、Layer-2 仮想ネットワークが、現存のアプリケーション(あの Microsoft のロード・バランシングのような)をサポートするために必要であり、また、ハイパーバイザ仮想スイッチ内で Remote-MAC-to-Remote-IP マッピングを構築するために、フラッディング(Flooding :IP マルチキャウストによりエミュレートされたもの)に依存すると主張する。


VXLAN architecture

Nicira’s Network Virtualization Platform is way better – it has a central control plane that uses OpenFlow to distribute MAC-to-IP mapping information to individual hypervisors. The version of their software I’m familiar with implemented simple layer-2 virtual networks; they were promising layer-3 support, but so far haven’t updated me on their progress.

Nicira の Network Virtualization Platform のほうが、ずっと良い 。 こそでは、MAC-to-IP マッピング情報を、個々のハイパーバイザに分散するために、OpenFlow を用いたコントロール・プレーンが使用される。私が知っている Nicira のバージョンは、シンプルな Layer-2 仮想ネットワークで実装されたものである。 そして、彼らは Layer-3のサポートを約束しているが、これまでのところ、アップデートの知らせは無い。

The Missing L3-4 Problem

We know application teams trying to deploy their application stacks on top of virtual networks usually need more than a single virtual network (or security zone). A typical scale-out application has multiple tiers that have to be connected with load balancers or firewalls.

仮想ネットワーク上にアプリケーション・スタックを実装しようとするアプリケーション・チームが、通常では 1つ以上の仮想ネットワーク(あるいはセキュリティ・ゾーン)を必要とすることは、周知の事実である。 そして、典型的なスケール・アウト型のアプリケーションが持つマルチ・ティアは、ロードバランサあるいはファイアウォールと接続される必要がある。

Simplified scale-out application architecture

All the vendors mentioned above are dancing around that requirement claiming you can always implement whatever L3-7 functionality you need with software appliances running as virtual machines on top of virtual networks. A typical example of this approach is vShield Edge, a VM with baseline load balancing, NAT and DHCP functionality.

これまでに説明してきたすべてのベンダーは、仮想ネットワーク上に仮想マシンとして動作するソフトウェア・アプライアンスが必要な、L3~L7 機能を用いるあらゆる要件でも実装できると、あなたの周囲で踊り続けるだろう。このアプローチの典型的な例は vShield Edge であり、そこではベースライン・ロードバランシングを用いた VM と、NAT と、DHCP 機能が組み合わされる。


Load balancer as a VM appliance

To keep the record straight: VMware, Cisco, Juniper and a few others offer hypervisor-level firewalls; traffic going between security zones doesn’t have to go through an external appliance (although it still goes through a VM if you’re using VMware’s vShield Zones/App). Open vSwitch used by Nicira’s NVP could be easily configured to provide ACL-like functionality, but I don’t know how far Nicira got in implementing it.

ここで、記録としての情報を列挙してみる。 VMware/Cisco/Juniper などは、ハイパーバイザ ・レベルのファイヤーウォールを提供する。 つまり、セキュリティ・ゾーン間のトラフィックは、外部のアプライアンスを通り抜ける必要がない(しかし、VMware の vShield Zones/App を使っているなら、依然として何らかの VM を通り抜けることになる)。 Nicira の NVP が用いる Open vSwitch は、ACL ライクな機能を提供するよう、簡単にコンフィグレーションできる。 しかし、それを Nicira が実装するのが、どれくらい先になるのか、私は知らない。

続く: Midokura と SDN : どのように Layer 2-4 をサポートすべきか_2

ーーーーー

image一言で SDN といっても、それぞれのベンダーにおけるコンセプトが、きわめて多様なものであることが分かります。 また、SDN に取り組んでいる、取り組んでいない、という表層的な話ではなく、どのようなレベルで設計/実装しているのかと、その辺りを見極めなければならないことも、この記事を読むと、よく分かってきます。 長い記事なので 2回に分けてポストしますが、後半は MidoNet にフォーカスした内容となりますので、どうぞ、お楽しみに!

ーーーーー

<関連>

Intel が思い描く、コモディティ SDN の構想 _1
Intel が思い描く、コモディティ SDN の構想 _2
VMware の言うクラウド選択の自由と、Nicira の買収は矛盾しないのか?
VMware が Nicira を $1.26B を買収 : その背景にあるものは?
Google 先生の OpenFlow 講座 – DC 間接続を低コストで達成するには
VMware の考える SDN は、OpenFlow だけでは完成しない

%d bloggers like this: