このページの本文へ

ネットアップ「Data Fabric」の価値をみんなで考えてみた 第1回

ネットアップが考える「ハイブリッドクラウド」でのデータ管理

アプリケーションに最適なクラウドを実現するData Fabricとは?

2016年01月07日 07時00分更新

文● 大谷イビサ/TECH.ASCII.jp 写真●曽根田元

  • この記事をはてなブックマークに追加
  • 本文印刷

「Data Fabric」はアプリケーションサイクルの視点で、最適なクラウド環境を提供できるネットアップのコンセプトを指す。クラウドネイティブもレガシーもカバーするデータ管理のアーキテクチャについて、米ネットアップのクラウド・ビッグデータCTOであるヴァル・バーコビッチ氏が語る。

米ネットアップ クラウド・ビッグデータCTO ヴァル・バーコビッチ氏

トランスフォームは必要!でも運用管理に2/3のコスト

調査会社のガートナーはテクノロジーへの投資トレンドを見るため、毎年スタートアップや多国籍企業まで含んだエンタープライズの“技術投資”についてアンケートを行なっている。

多くの会社では新しいアプリケーションやサービスを立ち上げるため、トランスフォーメーションプロジェクトと呼ばれるものが立ち上がる。ここで言う新しいアプリケーションとは、モバイル、クラウド、アナリティックス、SNSなどを構成するものだ。これは、かなり投機的で、経営学の視点からいうと失敗してもすぐに立ち上がれるFast Failなものだ。つまり、10回チャレンジして、9回失敗してもしょうがないという前提のプロジェクトになる。そのため、とにかくコストは下げる必要があり、成功した1つに対してより投資を増やしていくことになる。

このうち成功した1つの案件に対する技術投資を調査会社のガートナーは約20%と見積もっている。一方で、新規やレガシーまで含めたアプリケーションに対する運用は66%になる。これが今日われわれがITと呼んでいるものだ。つまり、予算組みや今後の市場を見据える場合、企業で注力するIT予算は全体の66%になるわけだ。

これをプロジェクトのライフサイクルにひも付けしてみよう。こうすると、開発・ラボで進める「変革」に14%、新インフラの導入・拡張など「拡大」に20%、既存インフラの保守・継続を行なう「運用」に66%になる。

アプリケーションのサイクルで必要なクラウドは変わる

2014年、米国では1つのマイルストーンが起こった。多くの企業がクラウドで実験を始めたことだ。これにより、すべてが変わり始めた。クラウドのリソースを簡単に消費できることをエンタープライズが気づき始め、とにかくコストが透明になってきた。

この結果、変動の激しいワークロードや極端に動きの少ないデータのバックアップやアーカイブはクラウドが向いていることがわかった。しかし、アクティブなデータの場合、クラウドではコストが高かったり、遅かったりといったことが起こることも同時に認知されるようになった。

開発・テストといったフェーズから見ると、AWSやAzure、Googleなどのハイパースケーラーのクラウドは低コストで失敗できる環境を提供してくれる。いろんな実験や投機的な取り組みに向いている。

米国の聴衆に向けて、私はちょっと挑発的な言い方をしている。「ビジネスプロジェクトを引っ張っている担当がAWSやAzure、Googleを使っていないのであれば、それはきちんと仕事に従事していない(Malpractice)と同じだ」といった具合だ(笑)。他の環境に比べてみればわかるが、実験をするのであれば、ハイパースケーラーのクラウドが一番よい環境と言える。

アプリケーションのライフサイクルとハイブリッドクラウド

でも、成功したプロジェクトを拡張したいのであれば、ハイパースケーラーの経済性はうまく機能しなくなる。というのも、ハイパースケーラーの環境は延びたり縮んだりという環境に最適に作られているからだ。実験的な取り組みには向いているが、いったん成功した後の環境としてはあまり向いていない。要件が変わってくるからだ。成功して拡張したいというのであれば、QoSが重要になる。最高のコスト効率が求められるし、バックアップもとらなければならないし、法令的な要件が出てきたら、データが提出できるよう、社内を整備しなければならない。

世界でもっとも成功しているアプリケーションを例にしよう。Netflix、Dropbox、Uberなどはまず、ハイパースケーラーのクラウドで先に開発を行なう。うまく行ったら、アプリケーションやモジュールをサービスプロバイダーや自身のデータセンターに移管している。ということで、予測性が立った段階で、ハイパースケーラーからサービスプロバイダーの環境に移行させる。

データセンターを持ちたくないのであれば、低コストなホスティングに環境を移していけばよい。また、予測性があるモノは自社運用するという選択肢もあるし、クリスマスや母の日など、どうなるか予想付かないものはハイパースケーラーに移動するという選択がとれる。

これがいわゆるハイブリッドクラウドの環境だ。なので、経済的な理由でいろいろな環境をグルグル回っていくというもので、他方に移動するだけという単純なシフトではない。「必ず安い」「セキュリティの懸念がある」など、クラウドは誤解が多い。「クラウドかオンプレミスか」という二者択一の議論にもなりがちだ。しかし、これらはすべて間違っており、議論として簡素化され過ぎている。

ハードウェアとソフトウェアの分離で新しい価値が生まれる

次に、ネットアップのポートフォリオを見ていこう。まずは2つのハードウェアのビルディングブロックがある。いろいろなワークロードに対して柔軟に対応できるclustered Data ONTAPベースのFAS/AFFと、高密度・ハイパフォーマンスに対応できる「Eシリーズ」がある。

ネットアップのポートフォリオ

ソフトウェアに関しては、過去1年かけてモジュール化することにした。一番いい例がclustered Data ONTAPだ。サードパーティのハードウェアでclustered Data ONTAPを動かすことも可能だし、AWSにポーティングしたCloud ONTAPもある。一方で、遅延やQoSの点でベストなものを実現したいのであれば、われわれのハードウェアでclustered Data ONTAPを稼働させるという選択肢がある。

結局、われわれが二十数年蓄積してきたものは、ほとんどソフトウェア側にあることに気がついた。今まで通りソフトウェアとハードウェアを組み合わせたアプライアンスは販売していくが、お客様の購入形態が変化しているので、コアのソフトウェアだけ売ろうということになった。

「われわれが二十数年蓄積してきたものは、ほとんどソフトウェア側にあることに気がついた」(バーコビッチ氏)

ハードウェアとソフトウェアを明確に区分けしたことで、いくつかのことが同時に起こった。clustered Data ONTAPをクラウド環境にポーティングしたCloud ONTAPが生まれ、リバーベッドのSteelStoreを買収した。そして、StorageGRIDをStorageGRID Web Scaleとリブランディングした。これらはすべてソフトウェアファーストのソリューションだ。ハードウェアを購入する前に、ソフトウェアでまず使ってみることができる。Data Fabric環境でインテリジェントなソフトウェアを迅速に柔軟性高く導入することができるという事例だ。

結局、お客様がなにを望んでいるかを考えた結果として、こうなった。しかもお客様自身が進化を遂げている。ソフトウェアの進化に評価をしたいというお客様が増えているし、ソフトウェアだけではあれば、設備に縛られることはない。でも、商用化をしようという話であれば、一番シンプルなFlexPodを購入するというパターンが増えている。安いか、高いかに関しては、各所でいろいろな意見もあると思うが、商用環境においては、FlexPod的なモノが求められているのは事実だ。

ただ、つねづね話していることだが、われわれ自身がソフトウェアカンパニーになるわけではない。既存のアプライアンスビジネスをメインに据えつつ、クラウドやソフトウェアの売り上げ構成比率が増えてくるということだ。

運用管理の効率化とクラウドとの親和性

運用管理に関しては「OnCommand」のポートフォリオが用意されており、データのモニタリングやアプリケーションの可視化が可能になっている。OnCommandのツールを使えば、データレベルで細かく監視ができるので、パラメータを設定することで、意思決定に役立つ。リアルタイムで変わっていくペタバイト規模のデータを見ることができる。

たとえば、現在ストレージを扱っているユーザーであれば、どれだけのフラッシュを購入すればよいか、どれだけのデータをクラウドに置いておけばよいかという2つの疑問に直面するはずだ。これは判断を間違えると、大きなコストが発生するリスクの高い問題と言える。でも、OnCommandを使えば、先ほどのこれらの問題に対して適切な意思決定を下すことができる。

さらに、オブジェクトストレージの「StorageGRID」やクラウドバックアップに特化したストレージゲートウェイの「AltaVault(旧称:SteelStore)」なども用意している。これらはバーチャルコントローラーとして提供しているので、サードパーティのハードウェアでも、クラウド環境でも動作する。これはアプリケーションのライフサイクルを考えた時に、非常に強固なコントロールを手にするということを意味する。

われわれはCephやSwiftなどのOSSに関しても積極的だし、マネジメントレイヤーとして、OnCommandのブランドでUnified APIを用意している。どんなハードウェアであっても共通に管理できるユニバーサルなコントローラーだ。

これだけの幅広いポートフォリオを実現しているのは、業界の中で弊社しかないと自負している。クラウドベンダー1社ではできないし、AWSのコアテクノロジーを使えるストレージベンダーはほかにはいないと思う。

ネットアップのポートフォリオとライフサイクルの関係

このポートフォリオにアプリケーションライフサイクルを当てはめてみよう。非常にスマートな開発者であれば、まずはCloud ONTAP環境で開発する。Amazon EBSといっしょに使ってもよいし、代替として使ってもよい。クラウド環境でStorage GRIDのバーチャルインスタンスを走らせることもできるし、オブジェクトに対するグローバルなポリシーマネジメントとしてStorage GRIDを使うことも可能だ。オブジェクトの保存をAmazon S3に行ない、AltaVaultを使って、リージョン間でバックアップするという方法もある。

ネットアップのData Fabricのビジョン

AltaVaultにはレガシーアプリケーションとクラウドアプリケーションの橋渡しをするという役割がある。クラウドのバックアップを容易にし、コストやリスクを抑えられる。クラウドのインスタンスとしても、ハードウェアとしても、ソフトウェアとしても導入できるので、プロジェクトをもっとも簡単にスタートできる。

クラウドアプリケーションの開発がうまく行ったら、各国のサービスプロバイダーに移せばよい。OpenStack環境やVMware vCloud Air上でもバーチャルコントローラーを使うことができる。すでにclustered Data ONTAPをベースにした環境は300以上あるが、他のハードウェアでもバーチャルコントローラーを稼働できるようになっている。そして予測可能な状態になったら、ワークロードを自社のオンプレミスに戻すことができる。

さらにNetApp Private Storageでは、データが大きい場合でもエクイニクスのデータセンターに置いておくことができる。共有ストレージにデータを置いておき、必要な時に演算処理をレンタルすればよいわけだ。こうすればプロバイダー間でのライフサイクルを追っていくことができるだけではなく、データの移動がほとんどない場合でも、もっとも安価なプロバイダーを見据えながら、保管場所を選べる。これがData Fabricとしてはもっとも面白い直近の例になると思う。

一方で、レガシーアプリケーションの進化はないので、ほぼ塩漬けになる。今までレガシーアプリケーションをクラウド化しようとした結果、メリットと同じく、デメリットも数多く発生した。データをバックアップしたり、アーカイブするといったクラウドの使い方はあるが、わざわざ移すことはないだろう。でも新しいアプリケーションをクラウド以外でやるのはクレイジーだと考えている。

レガシーアプリケーションに関しては、弊社がもっとも低い運用コストを実現できると考えている。たとえば、VDIに関して見ていこう。フラッシュだとパフォーマンスや遅延、あるいはサポートできる仮想デスクトップの数について話しているところは多いが、最終的に仮想デスクトップの単価について語っているところはあまりない。最新のわれわれのレポートでは、デスクトップあたり39ドルという情報を開示している。PCでここまで安価なものはないし、けっこうなインパクトだと思う。これだけの低廉なコストを提供できるベンダーはないはずだ。

ハイブリッドクラウドに現実的な可視性とコントロールを

Data Fabricの価値は、まずハイブリッドクラウド環境でどんなところでも可視性を担保できる点、パフォーマンスや可用性、QoSなどデータのコントロールができる点などが挙げられる。また、適切なタイミングで適切な場所に移すモビリティ機能もSnapMirrorなどで実現される。クラウドの経済性やリッチな機能を一切そぐことなく、アプリケーションライフサイクルを追っていけるよさがData Fabricにはある。

「クラウドの経済性やリッチな機能を一切そぐことなく、アプリケーションライフサイクルを追っていけるよさがData Fabricにはある」(バーコビッチ氏)

エンタープライズのIT予算の使い方に、マクロ的なシフトが起きている。現在はITオペレーションに2/3の予算が割かれているが、一方で成功するプロジェクトは開発者がひっぱってきている。だから、Data Fabricを誰にアピールするかというと、やはりDevOps環境にいる人たちだ。既存のアプリケーションのメンテナンスをやりつつ、新しいアプリケーションの保守もやらなければならない人が対象だ。

われわれは今までデータ管理を効率的に行なえるということで成功してきた。振り返れば、ネットアップは「Storage Efficiency」というキーワードを積極的に打ち出してきた。これによって市場のシェアを上げることができたし、これから使おうとしているユーザーも多い。変更のいらない重複排除の機能、スペース削減や俊敏性向上に役立つ「FlexClone」などが利用できる。最近は重複排除を補完する圧縮機能をリリースした。われわれは市場の中で、このデータ管理の部分でもっとも信頼を受けている。

正直、データ管理の面では現在のPaaSはまだまだアマチュアだ。たとえば、現在のクラウドのスナップショットはデータのフルコピーを取っているだけ。時間もコストもかかるし、動きが遅いので、開発者も困る。われわれはどんな環境でも瞬時にコピーを作れる環境を用意している。

もちろん、こうしたハイブリッドクラウドへのシフトには、パートナーのマインドセットも変える必要が出ている。ほとんどのパートナーはハードウェアの販売から収益を得ているし、クラウドになったらこれをあきらめなければならないと考えているパートナーも多い。でも、実際はハイブリッドクラウドが現実解となり、リサーチでも2/3はハイブリッドクラウドになっている。

ハイブリッドクラウドでのライフサイクルを理解し、お金がどこで発生するのか理解していれば、健全なビジネスを継続できるし、コミッションも得られる。過去とつながりのないソリューションを販売したり、レガシーばかりを売っているのではなく、ハイブリッドクラウドに対するサイクルをきちんと理解しているベンダーと付き合っていくことが重要だ。

「NetApp Innovation 2016」が東京、大阪、名古屋で開催

 

国内最大のストレージイベント「NetApp Innovation」が今年も東京、大阪、名古屋で開催される。今年のテーマは「データ ファブリックへようこそ」。未来につながるデータ管理のビジョンであるデータ ファブリックの概念を紹介すると共に、データ ファブリックが実現する3つのテーマを分科会セッションやさまざまな展示コンテンツを通して紹介する。

詳細はこちら


(提供:ネットアップ)

カテゴリートップへ

この連載の記事
  • 角川アスキー総合研究所
  • アスキーカード