Agile Cat — in the cloud

Data Warehousing の調査: あの Bob Muglia が率いる Snowflake が、Azure と AWS にガチンコ勝負を挑む

Posted in Amazon, Big Data, Data Warehousing, IoT, Microsoft, On Monday by agilecat.cloud on July 6, 2015
Cloud-based Data Warehousing: Snowflake, Microsoft Azure and Amazon Redshift
Dick Weisinger – June 25th, 2015
http://formtek.com/blog/cloud-based-data-warehouse-snowflake-microsoft-azure-and-amazon-redshift/
_ formtek
Data warehousing traditionally required a company to extract and download huge volumes of data from various business software systems into a central repository for analysis.  The process to prep the data was slow which meant that the analysis was always run against data that was already partially stale.
 
データ·ウェアハウスの概念は、多様なビジネス·ソフトウェア·システムから、膨大なデータをダウンロードした後に、分析のためのセンター・リポジトリに展開するものとなる。 そして、それを実現する企業が、常に待ち望まれてきた領域である。つまり、データを準備するプロセスに時間がかかり、そこでの分析といっても、すでに意味を失ったデータまでが含まれてしまうという状況であった。
 
Vermeer_3But recently we’re seeing a new generation of data warehousing, one based on cloud computing.  This week saw the announcement of general availability of Snowflake.  Snowflake is a cloud-based data warehouse running on Amazon AWS.  The company is led by Microsoft veteran Bob Muglia.  Snowflake received $26 million in funding in October 2014 and has received another round of $45 million this past week.
 
しかし、最近は、クラウド·ベースのデータ・ウェアハウスが、新しい世代の到来を告げているようだ。今週は、Snowflake が、一般への提供が始まったと、アナウンスメントを発している。Snowflake とは、Amazon AWS 上で走る、クラウド・ベースのデータ・ウェアハウスのことである。そして、同社は、Microsoft で数々の実績を築きあげてきた、あの Bob Muglia により率いられている。なお、Snowflake は 2014年10月に $26 million のファンドを獲得し、さらに先週には、別のラウンドで $45 million の資金を得ている。
 
The Snowflake data warehouse is in direct competition with Microsoft’s Azure SQL Data Warehouse and Amazon’s Redshift cloud data warehouse.
 
もちろん、Snowfake のデータ・ウェアハウスは、Microsoft の Azure SQL Data Warehouse と Amazon の Redshift クラウド・データ・ウェアハウスに対して、ダイレクトなコンペを挑むものとなる。
 
What’s unique about Snowflake among the crowd of other recent data-focused startups is that it isn’t based on Hadoop and it was built from scratch with the cloud in mind. Features of Snowflake include:
 
このところ、データにフォーカスしたスタートアップたちが、かなりの勢いで登場してきているが、それらの中で Snowflake がユニークなのは、Hadoop をベースにしていない点である。つまり、クラウドを念頭に置いて、ゼロ・スタートで構築されているのだ。Snowflake の特徴とされる点は:
 
  • Native support for structured, machine-generated and semi-structured data
  • Scalability of data, workloads and users for multi-dimensional elasticity
  • Self tuning of data distribution and storage, and query execution
  • Security. Uses authentication, granular access control and data encryption
 
  • 構造化データ/機械生成データ/半構造化データを、ネイティブでサポート
  • データ/ワークロード/ユーザーをスケーラブルにすることで、多次元弾性を確保
  • データ配信/ストレージ/クエリー実行における、セルフ・チューニング
  • セキュリティ:ユーザー認証/緻密なアクセス・コントロール/データの暗号化
 
ーーーーー
On Monday誰が、何を、必要としているのかを、的確に理解している人が、自信作を世に問うというストーリーですね。 お久しぶりです、Bob Muglia さん。こうして、その後の活躍を知ることができて、とても嬉しい気分です。 そして、機械生成データをネイティブでサポートというのは、まさに IoT 時代のデータ・ウェアハウスという感じで、とてもイケていますよね。 Snowflake の活躍を期待しています! _AC Stamp
ーーーーー
<関連>
Bob Muglia の辞任は、Windows Azure にとって悲運の呪文に?
Bob Muglia 氏の Microsoft 離脱に関する報道
PDC と Silverlight について – Bob Muglia
Amazon の Redshift がスタート! 警戒する HP、IBM、Teradata、Oracle など・・・
Google の DataFlow は、MapReduce の正当な継承者になり得るのか?
 

Legacy Apps の調査: 企業の 25% が、ワークフローとドキュメント管理をリプレースしたがっている

Posted in On Monday, Research by agilecat.cloud on June 29, 2015
Businesses Clean House Replacing Legacy Apps: One-Quarter Want to Replace Workflow and Document Management
Dick Weisinger – June 24th, 2015
http://formtek.com/blog/businesses-clean-house-replacing-legacy-apps-one-quarter-want-to-replace-workflow-and-document-management/
_ formtek
Businesses are itching to modernize their IT and business applications, according to a survey by Hitachi Consulting.  90 percent of businesses say that they have to deal with legacy applications that are holding them back.  More than one third say that nearly every project that comes up has issues related to legacy applications that need to be addressed.
 
Hitachi Consulting の調査によると、自社の IT およびビジネス・アプリケーションの近代化を進めたいと、うずうずしている企業の多いことが分かる。調査の対象となった企業の 90% は、なんらかのレガシー·アプリケーションを取り扱う必要性があり、また、それにより近代化に遅れが生じていると、発言している。さらに言えば、1/3 以上の企業が、大半のプロジェクトでレガシー・アプリケーションに関連する問題を抱えており、それを改善したいとしている。
 
Escher_1Chris Saul, vice president at Hitachi Consulting, said that if you “ask any IT director or CIO they’ll probably tell you that they’re envious of start-ups that have a greenfield to build their IT infrastructure.  Bulldozing isn’t often an option, so IT leaders need to find ways of introducing new applications, services and approaches – and do so quickly, with the ability to scale.”
 
Hitachi Consulting の VP である Chris Saul は、「 IT ディレクターや CIO に尋ねれば、おそらく、彼らは、ゼロ・ベースで IT インフラスを構築できる、スタートアップたちが羨ましいと答えるだろう。ブルドーザーを導入することは、多くのケースにおいて適切な選択肢にならない。したがって、IT リーダーたちにとって、新しいアプリケーション/サービス/アプローチを見つけ出したがっているが、それは迅速に行われる必要があり、しかも スケールする能力を有していなければならない」と述べている
 
The top three applications that businesses are looking to replace are:
 
対象となった企業が、リプレースすべきと考えている Top-3 のアプリは、以下のとおりである:
 
  • Business Intelligence and Analytics (28 percent)
  • Customer Databases (26 percent)
  • Workflow and Document Management (25 percent)
 
Among small and medium-sized companies the desire to replace workflow and document management apps is the greatest.  In that category, 36 percent say that they are ready to start over with something new, compared to only 14 percent of large businesses.  In particular, 36 percent of manufacturers say that they’re looking to replace their workflow and document management systems.
 
対象を中小企業に限定すると、リプレースを望むアプリケーションの1位は、Workflow and Document Management となる。そして、このカテゴリにおいては、36% の中小企業が新しい試みに取り組み始めているが、大企業にの場合は 14% という比率に下がってしまう。また、対象を製造業に絞ってみると、36% の企業が Workflow and Document Management リプレースするための模索していると述べている。
 
ーーーーー
On Mondayなるほどなぁ・・・ という調査結果ですね。 とりわけ、一人一人の機動力が重視される中小企業では、「ワークフローを操作し、ドキュメントを見るたびに、なんで PC が必要なのか?」という声が大きいはずだと思います。 そして、それらの従業員たちは、たとえば Facebook や Evernote などで、デバイス・フリーな環境に慣れ親しんでいるのです。 2010年のことですが、「Facebook のようなエンタープライズ・ソフトウェアを作りたい – Salesforce は語る」という抄訳をポストしています。 ちょっと参照していただければ、この時点から Salesforce が、アプリの在り方について危機感を抱いていたことが分かります。 こんな背景が、同社の素晴らしい成長を支えているのかもしれませんね。_AC Stamp
ーーーーー
<関連>
API の調査: このソフトウェア資産の運用術が、ハイテク・ビジネスの命運を分ける!
HTTP/2 の調査: Web の速度を 10倍〜40倍にアップし、将来の暗号化を視野にいれる!
Container の調査: CoreOS と Google のタッグと、新興の OSv が、Docker に対抗する!
Cloud の調査:コンテナの潜在能力を解放し、無駄なリソース消費を排除すべきだ
Browser の調査: IE を Spartan でリプレイスする、Microsoft の狙いは 何処にあるのか?
 

API の調査: このソフトウェア資産の運用術が、ハイテク・ビジネスの命運を分ける!

Posted in API, On Monday, Salesforce by agilecat.cloud on June 22, 2015
APIs: Virtual Assets that are the Key to Driving a High Tech Business
Dick Weisinger – June 15th, 2015
http://formtek.com/blog/apis-virtual-assets-that-are-the-key-to-driving-a-high-tech-business/
 
_ formtek
Companies like Uber, Airbnb, Facebook, Alibaba, and Paypal are examples of businesses that have high valuations but which don’t have any physical assets.  One thing these businesses do have though is software and these businesses are experts in using Application Program Interfaces (APIs) to expose their data and software algorithms to increase their business’ value.
 
Uber/Airbnb/Facebook/Alibaba/Paypal といった企業は、大きな価値を有してはいるが、なんらかの物理的な資産を、自身では所有しない企業の代表格である。それらの企業に共通するのはソフトウェアの存在であり、また、Application Program Interfaces (APIs) 使いとしての有能さである。つまり、自身のデータやソフトウェア・アルゴリズムをエクスポーズすることで、そのビジネスの価値を高めているわけだ。
 
Programmableweb.com estimates that there are over 12,000 different APIs.  Harvard Business Review estimates that Salesforce.com generates half of its revenues from APIs.  Expedia generated 90 percent, and eBay 60 percent.
 
Programmableweb.com は、現時点で 12,000種類以上の API が存在すると推定しているHarvard Business Review は、Salesforce.com における収益の半分が、API から生み出されていると推定している。 その値は、Expedia の場合で 90% となり、eBay は 60% となる。
 
Brian Lillie, CIO of global data center provider Equinix, said that  “CIOs should care a lot about APIs, because they are a way to unlock data and make it available to enterprise applications, customers and partners.  APIs can liberate your data…  Writing reports on these old systems takes a lot of work and a lot of people.  But if you put a handful of APIs in front of that old system of record, you can expose the trapped data to developers who can easily extract it.  APIs eliminate the need to write custom reports in archaic languages, like COBOL.  It’s a powerful way to give self-service to your organization.”
 
グローバルなデータセンター・プロバイダーとして有名な、Equinix の CIO である Brian Lillie は、「CIO たちは、API について、たくさんのことを考えなければならない。つまり、データにかけられたロックを解除し、エンタープライズにおけるアプリケーション/カスタマー/パートナーたちが利用できるようにする必要があるからだ。API により、あなたのデータは解放される。一般的に言って、古いシステムを呼び出すコードを書こうとしても、多くの作業と多くの人々が必要になる。しかし、いまも稼働している古いシステムのフロントに、一握りの API を配置するだけで、一連のデータをエクスポーズすることが可能になり、それを取得した開発者たちは、必要なデータを容易に抽出できるようになる。そして、API を利用することで、たとえば COBOL のような古風な言語の場合のような、カスタムなコードを記述する必要もなくなる。つまり、それぞれの組織におけるセルフ・サービスという、パワフルな方式を API は提供してくれるのだ」と述べている
 
Lillie said that “with the Internet of Things (IoT), we are going to see a tremendous number of devices and consumer products producing and communicating a huge amount of data…  Over time, every one of these devices will have the ability to communicate via an API in an integrated, consolidated and standardized way When APIs meet the Internet of Things, the result is going to be game-changing for most companies.”
 
そして Lillie は、「 私たちは Internet of Things (IoT) に出会ったことで、膨大な数のデバイスやコンシューマ製品が、膨大な量のデータを生み出し、また、送受信していく様を、目の当たりにしようとしている。時間が経つにつれて、それらのデバイスのすべてが、統合化/簡素化/標準化された方式の中で、API を介して通信する能力を持つことになる。結論として、API と IoT が出会うとき、大半の企業に対してゲーム・チェンジを迫る変化が生じるだろう」と発言している。
 
ーーーーー
On MondayAPI がもたらす収益としての、Salesforce と Expedia と eBay での推測値が示されていますが、いまの時代のビジネス・モデルを明らかにする、とても明確な切り口ですね。 そして、この Agile_Cat でも、ずいぶんとお世話になった Programmableweb ですが、そういえば、このところ、見ていなかったなぁ・・・ と反省しているところです。 なんらかのソフトウェア資産を API というかたちで、エクスポーズすることは究極のオープンソースだと、どこかで読んだ記憶があるのですが、まさに、そのとおりだと思います。 そして、API を活用する企業が、大きな収益を上げることも、理にかなっていると思えるのです。 API と IoT が出会うときを想像すると、ワクワクしてきますね! _AC Stamp
ーーーーー
<関連>
HTTP/2 の調査: Web の速度を 10倍〜40倍にアップし、将来の暗号化を視野にいれる!
Container の調査: CoreOS と Google のタッグと、新興の OSv が、Docker に対抗する!
Cloud の調査:コンテナの潜在能力を解放し、無駄なリソース消費を排除すべきだ
Browser の調査: IE を Spartan でリプレイスする、Microsoft の狙いは 何処にあるのか?
Security の調査: ハッカーが物理的に侵入すると、大半の企業は数時間で丸裸にされる?

HTTP/2 の調査: Web の速度を 10倍〜40倍にアップし、将来の暗号化を視野にいれる!

Posted in .Selected, Network, On Monday, Standard by agilecat.cloud on June 15, 2015
HTTP/2: Blueprint for Speedier and More Secure Internet Communications
By Dick Weisinger – June 12th, 2015
http://formtek.com/blog/html2-blueprint-for-speedier-and-more-secure-internet-communications/
_ formtek
In February 2015 an overhaul of the HTTP protocol was approved, the first change since HTTP 1.1 was adopted in 1999.  The new protocol is being called HTTP/2.
 
2015年2月のことだが、HTTP プロトコルに関する徹底的な改善が承認された。 それは、1999年に HTTP 1.1 が採択されてから、初めての変更となる。 そして、この新しいプロトコルは、HTTP/2 と呼ばれている。
 
The new protocol was in development for two years by the IEFT (Internet Engineering Task Force) and is based on a protocol created by Google called SPDY.
 
この新しいプロトコルは、IEFT(Internet Engineering Task Force)が2年を費やして開発したものであるが、Google が作成した SPDY というプロトコルをベースにしている。
 
Chagall_15Some of the ways in which HTTP/2 will speed up internet communication is the compression of header information and the ability to send multiple requests over a single connection.  Web pages should load ten to forty times faster with HTTP/2.  The improvements are expected to speed up web traffic and improve efficiency so that mobile devices will consume less power when loading browser pages.
 
HTTP/2 がインターネット通信を高速化する手法としては、ヘッダ情報を圧縮する能力や、シングル・コネクション上でのマルチ・リクエストの送信などが挙げられる。そのため、HTTP/2 を用いた場合において、Web ページのロードは 10倍〜40倍も高速化されるという。この更新により、Web トラフィックが高速化され、効率がを改善されるはずだ。したがって、モバイル・デバイス上のブラウザで、Web ページをロードする際に、電力の消費が低減されることになる。
 
HTTP/2 was originally intended to have TLS (Transport Layer Security) encryption, or SSL, built in, but that idea was rejected because it was felt that doing so would make implementation of the new standard much more difficult for network operators and proxy vendors.
 
もともとの HTTP/2 構想では、TLS(Transport Layer Security)暗号化と、SSL をビルトインで取り込むことた意図されていたが、その考えは拒否された。なぜなら、そのセキュリティ対策を実施することで、ネットワーク・オペレータやプロキシー・ベンダーによる、この新しいスタンダードの実装が難しくなるという、懸念が生じたからである。
 
Mark Nottingham, chair of the IETF HTTP Working Group, said that “one of the big reasons that HTTP/2 took so long to get to is that upgrading the protocol in the deployed infrastructure is really hard; there are lots of boxes out there that assume HTTP/1 will never change.  So, if the transition from HTTP/1 to HTTP/2 goes well, it should be a lot easier to introduce the next version, because we can use the same mechanism that we used for the first big hop.”
 
IETF HTTP Working Group の Chair である Mark Nottingham は、「HTTP/2 の確定までに、かなりの時間が費やされた大きな理由として、インフラの深部にディプロイされたプロトコルを、アップグレードすることが、きわめて困難になるという捉え方があった。つまり、HTTP/1 が変化しないと想定すると、たくさんの障害が取り残されることになる。したがって、HTTP/1 から HTTP/2 への移行が上手くいけば、次期バージョンの導入が、きわめて容易になるはずだ。なぜなら、最初の大きな飛躍で用いたメカニズムを、再び利用できるようになるからだ」と述べている
 
ーーーーー
On Mondayそんなに Web が速くしてくれるなら、HTTP/2 に対する期待が膨らみますね。 しかし、HTTP/1 のトラフックが飛び交う中で、HTTP/2 を増やしていく必要があるので、プロトコルの切り替えというのは、ほんとうにタイヘンですね。 そして、HTTP 2.1 の登場により、HTTP/2 の時代が幕を開けるのでしょう。 文中の最後の方で、「最初の大きな飛躍で用いたメカニズム」と表現されているのは、HTTP 1.0 から HTTP 1.1 へのステップ(たけけんのサーバー勉強日記)のことなのだろうと推測しています。 楽しみですね! _AC Stamp
ーーーーー
<関連>
Container の調査: CoreOS と Google のタッグと、新興の OSv が、Docker に対抗する!
Cloud の調査:コンテナの潜在能力を解放し、無駄なリソース消費を排除すべきだ
Browser の調査: IE を Spartan でリプレイスする、Microsoft の狙いは 何処にあるのか?
Security の調査: ハッカーが物理的に侵入すると、大半の企業は数時間で丸裸にされる?
Microservices の調査:Amazon.com におけるマイクロサービス・アーキテクチャとは?
 
 

Container の調査: CoreOS と Google のタッグと、新興の OSv が、Docker に対抗する!

Posted in Container, On Monday by agilecat.cloud on June 8, 2015
Containers: Competitors to Docker Begin to Rise
By Dick Weisinger – June 3rd, 2015
http://formtek.com/blog/containers-competitors-to-docker-begin-to-challenge/
_ formtek
Container packaging has been the rage over the past year.  Containerization has the potential to be highly disruptive to existing server virtualization, impacting existing businesses like VMware.  Containers are more efficient, lighter-weight, and speedier, and easier to automate than standard virtualization.
 
コンテナによるパッケージングが、この1年において、怒涛のような躍進を遂げている。そして、いわゆるコンテナ化により、これまでの仮想サーバーというビジネスが破壊され、VMware のような企業に大きな影響が生じるかもしれない。お決まりの仮想化と、コンテナと比較してみると、効率化/軽量化/迅速化/容易な自動化という面で、後者の方が優位となる。
 
Seurat_14While Docker has been the company leading the charge in the area of containerization, they’re not along among companies looking for ways to break into this new space.  CoreOS and Google have recently teamed up to create the Tectonic project.  Google’s contribution to the project is a management layer known as ‘Kubernetes’.  Kubernetes helps to manage infrastructure of web projects, in a way similar to what Google does with Google search and gmail.
 
コンテナ化というエリアに突撃する企業としては、Docker が最先端を走っているが、この新しいスペースに参入する方式を模索しているのは、決して同社だけではない。最近になって CoreOS と Google は、Tectonic プロジェクトを立ち上げるために提携している。このプロジェクトに対して Google は、Kubernetes として知られるマネージメント・レイヤをコントリビュートしている。 この Kubernetes は、Googe における Search や Gmail と同じ方式で、Web プロジェクトのインフラス管理を促進していく。
 
Craig McLuckie, product lead for Kubernetes, said that “we introduced Kubernetes to bring cluster first management to the multi-cloud world. With this announcement, CoreOS is helping us realize that vision: a fully supported, enterprise grade version of Kubernetes that runs everywhere. Our Google Cloud Platform customers benefit from modern management patterns pioneered in Google, and Tectonic frees them to pick their cloud provider solely on the merits of their infrastructure, with no lock-in whatsoever.”
 
Kubernetes の Product Lead である Craig McLuckie は、「私たちは Kubernetes 導入することで、Multi-Cloud の世界における、Cluster-First のマネージメントを実現できた。今回のアナウンスメントは、あらゆる環境で実行が可能な、Kubernetes のエンタープライズ・グレード·バージョンを、完全にサポートしていこうとする、私たちのビジョンの前進を示すものだ。 つまり、それを、CoreOS が具現化していくことになる。そして、Google Cloud Platform の顧客たちは、私たちが作り上げてきた、近代的なマネージメント・パターンを享受する。さらに言えば、Tectonic を利用する顧客は、クラウド・プロバイダーの選択から解放され、自身のインフラにおけるメリットだけを追求できるようになる。つまり、ロックインが、完全に消滅することになる」と述べている
 
An emerging competitor to Docker is from the Cloudius OSv product.  OSv is a new totally minified operating system that is containerized and runs on top of almost any hypervisor.  What’s impressive is the speed.  Docker is fast, but the OSv sub-second boot time is lightening.
 
そして、Cloudius OSv も、Docker に対する新たなライバルとして、名乗りを上げている。 OSv は、まったく新たにデザインされた、超小型のオペレーティング・システムであり、コンテナ化に対応し、また、大半のハイパー・バイザー上で動作する。なにが素晴らしいのかと言うなら、そのスピードが挙げられるだろう。  Docker も高速であるが、OSv は1秒未満でブートするだけの、軽量化が図られているのだ
 
ーーーーー
On Mondayこの領域も、新たな参入者が、次から次へと登場しますね。クラウドの時代になり、OS における要件が再定義され、また、それらを管理する手法が刷新されているわけですが、ここで紹介されている Tectonic などは、まさに、その最先端なのでしょう。 そして、最後に紹介されている OSv は、ハイパーバイザー上でシングル・アプリを走らすのみという、CoreOS よりもさらにシンプルな構造になっているようです。 そろそろ、極限まで行き着いたという感じなのでしょうかね? _AC Stamp
ーーーーー
<関連>
Cloud の調査:コンテナの潜在能力を解放し、無駄なリソース消費を排除すべきだ
Browser の調査: IE を Spartan でリプレイスする、Microsoft の狙いは 何処にあるのか?
Security の調査: ハッカーが物理的に侵入すると、大半の企業は数時間で丸裸にされる?
Microservices の調査:Amazon.com におけるマイクロサービス・アーキテクチャとは?
Cloud Developer の調査: あなたは DevOp 派? Coder 派? それとも RAD 派?

Cloud の調査:コンテナの潜在能力を解放し、無駄なリソース消費を排除すべきだ

Posted in Container, On Monday, Virtualization by agilecat.cloud on June 3, 2015
Cloud Computing: Container Technology to Shrink Wasted Cloud Resources
By Dick Weisinger – May 29th, 2015
http://formtek.com/blog/cloud-computing-container-technology-to-shrink-wasted-cloud-resources/
_ formtek
Cloud infrastructure spending grew by 14.4 percent year over year in the fourth quarter 2014 to $8 billion, according to IDC.  Cloud infrastructure includes server, disk storage, and ethernet switches.
 
クラウド・インフラへの支出であるが、IDC によると、2014年 Q4 の成長率は前年比で 14.4 % 増加であり、また、売上は $8 billion に達しているという。ここで言うクラウド・インフラには、サーバー、ディスク·ストレージ、およびイーサネット・スイッチなどが含まれている。
 
Monet_4But much of the money spent on cloud computing has been wasted.  When businesses spin up servers with more power or capacity that are really required, that extra capacity will not be fully utilized.  Often businesses are sloppy in managing their virtual servers, not shutting them down in off hours when they’re not needed.
 
しかし、クラウド・コンピューティングに費やされる対価のうち、かなりの金額が無駄遣いされている。ユーザー企業が、実際の要件を満たすために、さらなるパワーやキャパシティをサーバー群に投入しても、その余剰のキャパシティが、十分に活用されることはない。 また、多くのケースにおいて、ユーザー企業の仮想サーバー管理がずさんであり、そのキャパシティが不要な場合でも、シャットダウンが実施されていないようだ。
 
Boris Goldberg, co-founder and chief technology officer at Cloudyn Ltd., estimates that 60 percent of cloud software servers could be eliminated or terminated because their not being used.
 
Cloudyn Ltd の Co-Founder and CTO である Boris Goldberg が、ボリス·ゴールドバーグ、Cloudyn Ltd.の共同創設者兼CTO(最高技術責任者)は、クラウド・ソフトウェア・サーバーの、60% が利用されていない計算となるため、それらの停止や契約解除が可能だと、そのステートメントで述べている。
 
Richard Davies, CEO of ElasticHosts, said that “a large proportion of cloud users are paying for cloud services that they never fully utilize…  This is because the prevalent model for IaaS is based on the use of virtual machines, where compute is paid for based on what is provisioned, but this is at best 50% utilised by typical workloads.  However, recent updates to the Linux kernel mean containerized servers can now be offered to cloud IaaS customers, where they are only charged for capacity they actually use, rather than what they provision, and as a result this wasted IaaS capacity could be eliminated.”
 
ElasticHosts の CEO である Richard Davies は、「クラウド·ユーザーの大部分が、完全に利用しつくすことの有り得ない、クラウド・サービスに対価を支払っている・・・ なぜなら、IaaS を支配しているモデルは、仮想マシンの利用をベースにしているからだ。つまり、コンピューティング、何をベースにプロビジョニングされ、どのような支払いが生じているのかという話である。そして、一般的なワークロードにおける使用率は、せいぜい 50% 程度である。とは言え、最近の Linux カーネルは、サーバーをコンテナ化するようにアップデートされ、それを IaaS クラウド・ユーザーに提供するようになってきた。つまり、プロビジョニングされた容量にでなく、実際に使用する容量に対して、課金することが可能になる。その結果として、ここで言う 無駄な IaaS キャパシティを排除できるようになる」と述べている
 
Davies said that “the sooner the cloud industry unlocks the potential of containers, the quicker we will evolve to the next generation of the cloud, and the more customers that will benefit.”
 
Davis は、「 クラウド業界は、迅速に、コンテナの潜在能力を解放すべきだ。 それにより、次世代のクラウドへの、私たちは素早く移行できる。 つまり、より多くの顧客に対して、コンテナのメリットを提供できるのだ」と、付け加えている。
 
ーーーーー
On Monday文中にある「クラウド・ソフトウェア・サーバーの 60% が利用されていない」という表現ですが、アプリケーションへのリクエストがなく、仮想サーバーだけが走っている状況を示しているのでしょうかね? この数字の正確性はともかく、無駄なサーバーがたくさん動いている感じはしますね。 ただし、それは、クラウド固有の問題ではなく、オンプレミスでも言えることであり、そちらの方が酷い数字を示しているように思えます。 でも、クラウドであれば、もっと厳格な管理手法を提供できるはずであり、無駄も省かれるべきという意見には賛成です。_AC Stamp
ーーーーー
<関連>
Browser の調査: IE を Spartan でリプレイスする、Microsoft の狙いは 何処にあるのか?
Security の調査: ハッカーが物理的に侵入すると、大半の企業は数時間で丸裸にされる?
Microservices の調査:Amazon.com におけるマイクロサービス・アーキテクチャとは?
Cloud Developer の調査: あなたは DevOp 派? Coder 派? それとも RAD 派?
Security の調査:CFO と CIO が協力しなければ、サイバー・アタックを迎撃できない!

Browser の調査: IE を Spartan でリプレイスする、Microsoft の狙いは 何処にあるのか?

Posted in Microsoft, On Monday by agilecat.cloud on May 25, 2015
Internet Browsers: Microsoft Deprecates Internet Explorer and Introduces Spartan
Dick Weisinger – May 13, 2015
http://formtek.com/blog/internet-browsers-microsoft-deprecates-internet-explorer-and-introduces-spartan/
_ formtek
Coming this Summer, Microsoft plans to release the next version of the Windows OS, version 10.  Microsoft also recently announced that they will be phasing out Internet Explorer in this version of the operating system, being replaced by a new browser that is currently being code-named ‘Spartan’.  Internet Explorer 11 is expected to be released alongside Spartan on the new OS, but going forward, the focus will be on Spartan.  Spartan is available for preview now as part of early releases of Windows 10.
 
この夏に Microsoft は、次期 Windows OS である Version 10 をリリースする予定だ。さらに Microsoft は、次期 Windows OS では Internet Explorer を段階的に廃止し、いまは Spartan というコードネームで呼ばれる新しいブラウザで置き換えていくと、最近になってアナウンスしている。この新しい OS でも、Internet Explorer 11 が Spartan と平行してリリースされるだろうが、今後の焦点は Spartan へと向かっていく。そして Spartan は、Windows 10 のアーリー・リリースの一部として、すでにプレビューが可能となっている。
 
Dali_3While Internet Explorer is still the most widely used browser, its user base has been eroding, and it has a bad reputation among web designers, developers and other techies.  Microsoft even poked fun at itself with the introduction of Internet Explorer version 9 in 2012, calling Internet Explorer the “browser you loved to hate”.
 
いまでも、Internet Explorer は最も利用されているブラウザであるが、そのユーザー・ベースは侵食されている。そして、Web デザイナーや、デベロッパー、マニアたちの間では、評判が良くない。さらに言えば、Microsoft は 2012年に Internet Explorer Version 9 と投入したときに、“browser you loved to hate” という表現で、悪ふざけまでしてしまった。
 
Joe Belfiore of Microsoft, wrote that Spartan is “fast, compatible, and built for the modern Web.  Project Spartan is designed to work the way you do, with features enabling you to do cool things like write or type on a webpage.  It’s a browser that is made for easy sharing, reading, discovery and getting things done online.”
 
Microsoft の Joe Belfiore は Spartan について、「高速性と互換性を重視し、最新の Web のために構築してきた。プロジェクトとしての Spartan は、あなたが行いたいことを、サポートするようにデザインされている。つまり、Web ページ上での入力といった、クールな操作を実現するものである。そして、もちろん、ブラウザであるからには、容易な共有/参照/発見を実現し、また、すべてをオンラインで完結させるために作られている」と述べている。
 
Some highlights of the new browser include:
 
  • A faster and standards-compliant rendering engine
  • Cortana, a Siri-like assistant, to assist with web browsing
  • Annotation and note taking directly on the web page
  • Easy capture and clipping of web pages
 
この新しいブラウザには、以下のような、いくつかの特徴がある:
 
  • 高速性と標準への準拠を両立させるレンダリング・エンジン
  • Siri ライクな Cortana による、Web 参照のアシスト
  • Web ページ上に注釈やメモを、ダイレクトに書き込む機能
  • Web ページの、容易なキャプチャやクリッピング
 
While there has been some criticism of the Spartan browser, much of the pess has been good.  For example, Mike O’Brien, head of platform for the Javascript framework Famo.us, said that the new Chakra JavaScript engine in Spartan “seems to just be hands down the fastest JavaScript engine out there now.”
 
この Spartan ブラウザに対しては、いくつかの批判もあったが、プレスの多くは満足しているようだ。たとえば、JavaScript フレームワーク Famo.us の Head of Platform である Mike O’Brien  は、Spartan に搭載される最新の Chakra JavaScript エンジン について、「現存する JavaScript エンジンの中で、図抜けたスピードを実現していると思われる」と述べている。
 
ーーーーー
On MondaySteve Ballmer 時代の Microsoft は、Internet Explorer という強力なブラウザを持ちながらも、Web の価値を矮小化させることで、Office のプレゼンスを高めようとしていたはずです。 しかし、Satya Nadella が CEO に就任してからというもの、Cloud-First Mobile-First へのシフトが速やかに進められています。 その意味で、Windows 10 と Spartan は、新しい Microsoft が世に問う、新しいプラットフォームになるはずです。 期待したいですね! _AC Stamp
ーーーーー
<関連>
Security の調査: ハッカーが物理的に侵入すると、大半の企業は数時間で丸裸にされる?
Microservices の調査:Amazon.com におけるマイクロサービス・アーキテクチャとは?
Cloud Developer の調査: あなたは DevOp 派? Coder 派? それとも RAD 派?
Security の調査:CFO と CIO が協力しなければ、サイバー・アタックを迎撃できない!
IoT の調査:Verizon レポート:すでに 10億個以上の、B2B IoT デバイスが機能している
 

Security の調査: ハッカーが物理的に侵入すると、大半の企業は数時間で丸裸にされる?

Posted in Security, On Monday by agilecat.cloud on May 18, 2015
Security: Low Technology Tools Highly Effective for Hacking Businesses
By Dick Weisinger – May 11th, 2015
http://formtek.com/blog/security-low-technology-tools-highly-effective-for-hacking-businesses/
_ formtek
While businesses increasingly are beefing up security controls to prevent hackers from the outside from penetrating their computer systems, they often overlook their vulnerability from within their organization.  Low-tech hacking techniques for gaining access to systems can be very effective.
 
それぞれの企業が、自身のコンピュータ・システムに対して、ハッカーたちが外部から侵入しようとするのを防ぐために、セキュリティ・コントロールに邁進しているが、多くのケースにおいて、組織内からの攻撃に脆弱性をさらけ出している。そして、残念なことに、それらのシステムに対するアクセスを得る上で、ローテクのハッキング・テクノロジーが、きわめて有効に機能してしまうのだ。
 
Seurat_23M recently conducted an experiment with the Ponemon Institute to uncover security vulnerabilities due to human factors.  It turns out that people within an organization provide a variety of easy vulnerabilities for hackers to exploit.  In the experiment, white cover hackers were sent undercover as a temporary or part-time worker into businesses.  After only two hours of being on site, in 88 percent of the trials, the hackers successfully obtained sensitive information.  Researchers wandered the area and were able to take pictures of computer screens and pick up and take document that were marked as “confidential”.
 
最近のことだが、3M の Ponemon Institute が、人的要因が引き起こすセキュリティ上の脆弱性を、明らかにするための実験を行なった。そして、組織内の人々がハッカーたちに対して、脆弱性を助長する多様な切り口を、きわめて容易に提供してしまうことが判明した。この実験は、ダミーのハッカーたちを、それぞれの企業のパートタイム労働者として送り込むところから開始されている。あるサイトでは、実験がスタートして僅か2時間後に、ハッカーたちが機密情報の 88% を入手するという結果を引き起こしている。ダミー・ハッカーである研究者たちは、対象となるエリアを動き回り、コンピュータ・スクリーンをキャプチャした後に、「confidential」と記載されているドキュメントを取得した。
 
In 45 percent of the cases it took researchers only 15 minutes to gain access to sensitive information and in 63 percent of the cases it is less than half an hour.  An average of five pieces of information were hacked per trial, information that included employee contact information, customer information, corporate financial information, and employee access and login information.
 
そして研究者たちは 、45% のケースにおいて 15分足らずで、また、63% のケースでは 30分以内で、機密情報にアクセスしている。ちなみに、この実験においてアクセスした内容には、employee contact information/customer information/corporate financial information/employee access/login information という、5種類の機密情報が含まれている。
 
In one case, the researcher even opened an Excel spreadsheet on a computer and started taking pictures of it on their cellphone, but no nearby workers said anything.  No one questioned what the researcher was doing.
 
あるケースでは、研究者たちは Excel のスプレッドシートをオープンし、そのスクリーンを自分のスマホで撮影したが、そばに居た従業員たちは何も言わなかったそうだ。 つまり、ダミー・ハッカーたちが行なっていることに、誰も疑問を持たなかったことになる。
 
Larry Ponemon, chairman and founder of Ponemon Institute, said that “in today’s world of spear phishing, it is important for data security professionals not to ignore low-tech threats, such as visual hacking.  A hacker often only needs one piece of valuable information to unlock a large-scale data breach. This study exposes both how simple it is for a hacker to obtain sensitive data using only visual means, as well as employee carelessness with company information and lack of awareness to data security threats.”
 
Ponemon Institute の Chairman and Founder である Larry Ponemon は、「 先鋭なフィッシング行為が蔓延する今日の世界では、このビジュアル・ハッキングに例えられるローテクの脅威を無視しないという、データ・セキュリティの専門家たちの姿勢が重要になってくる。多くのケースにおいて、ハッカーは一片の情報を手にするだけでロックを解除し、大規模なデータ侵害を成功させてしまう。今回の調査では、ハッカーたちがビジュアルな手段を用いるだけで、機密データを容易に取得できることが明らかになった。 それだけではなく、企業情報やデータ・セキュリティの脅威に対して、従業員たちの注意が足らず、意識が欠如しているという側面も明らかになった」と述べている。
 
ーーーーー
On Mondayなんという、怖ろしい破壊力なのでしょうか。 たしか、昨年末に Sony Pictures が侵害された件も、ハッカーが物理的に侵入した結果だと言われていました。 以前に、Hybrid の調査: 企業データを分析すると、20-60-20 の 仕分けシナリオが見えてくる という抄訳をポストしていますが、まずは、クラウドとオンプレミスに置くべき情報の仕分けが必須なのでしょう。 そして、たとえばパートタイム従業員が入っていくようなオフィスからは、クラウドのみが参照できるというような、なんらかの制約が必要なのかもしれませんね。_AC Stamp
ーーーーー
<関連>
Microservices の調査:Amazon.com におけるマイクロサービス・アーキテクチャとは?
Cloud Developer の調査: あなたは DevOp 派? Coder 派? それとも RAD 派?
Security の調査:CFO と CIO が協力しなければ、サイバー・アタックを迎撃できない!
IoT の調査:Verizon レポート:すでに 10億個以上の、B2B IoT デバイスが機能している
IoT の調査: セキュリティとスケールのために、新たな IDoT を考えるべきと Gartner が発言
%d bloggers like this: