このページの本文へ

2012年、日本のITはどうなる? 第7回

今年のキーワード「ビッグデータ」にまつわる素朴な疑問

「ビッグデータ」が実現するビジネスの形とは?

2012年01月31日 06時00分更新

文● 大谷イビサ/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

年末年始の挨拶で、私はいくつかのベンダーの方に「2012年に流行るモノについて、他のメディアはなんと言ってますか?」と聞いてみた。そうすると、やはり「ビッグデータ」という答えが返ってきた。ここでは、聞きかじり知識で2012年のキーワードとなったビッグデータの定義づけを試してみよう。

ビッグデータの教科書的な解釈

 ビッグデータの定義は難しい。現象としてのビッグデータは、大河原克行氏の「ビッグデータは我々になにをもたらすのか?」で書かれているような情報爆発の状態を指す。インターネットのユーザーや端末数の増加、TwitterやFacebookで扱われているデータ量、そして人類が作り出した「ゼタバイト」という単位のデータについて、「東京ドーム何個分」的な考察が繰り広げられる。これに関しては、IPv6のアドレス数と同じく、実感しようとしても無理なので、「未曾有の量ですね!」と慨嘆しておけばよいだろう。

想像を超えたデータ量の増加は2020年には35ゼタバイトへ(日本IBMのスライド)

 一方、ソリューションとしてビッグデータを考えると、こうした文字通り巨大なデータを解析して、企業や自治体、国家、ひいては人類にとって役に立つ情報に変える手段ということになる。こうした解析は、ビジネス分野では特にBI(Business Intelligence)という分野で古くから行なわれてきたが、ビッグデータではデータベースに登録された構造化データではなく、全データの8割を締めるファイルをベースとした「非構造化データ」が対象となる。こうした非構造化データは今まで利用価値がなく捨てていたが、実は宝の山。これらを統計的な手法で解析することで有用なマーケティング・営業データとして活用できるというのがビッグデータソリューションを提供するベンダーが口を揃えるメリットだ。今後は溜めておいたデータを解析するストック型の処理に加え、増加するデータをリアルタイムに解析するストリーム型の処理もソリューションとして求められることになるだろう。

 こうした例は今までぴんと来なかったが、震災以降はGoogle Mapなどを活用した震災被害マップなどがいわゆるビッグデータの活用例として、よく出される。自前でデータを保持しなくても、APIなどを介して必要なデータを引き出し、特定の解析アルゴリズムで、ユーザーに必要な「情報」として提供するというものだ。また、大河原氏の記事にも出てくるIBMとストックホルム市が行なっている交通渋滞解消のプロジェクト、遠隔からリアルタイムの検診が行なえるイギリスのスマートメーターの事例なども、ビッグデータの活用例としてよく引き合いに出される。

 そして、こうした分析を効率的に行なう分散処理用ソフトウェアとして登場するのが「Hadoop」というわけだ。オープンソースソフトのHadoopの登場により、今までGoogleの検索エンジンで利用していたような大容量データ処理が安価に短期間に導入できるようになった。

ビッグデータはどういう商売になるのか?

 ここまでは教科書的なビッグデータの解釈だが、多くの人が一番興味を持つのが、これがどのようにビジネスになるのかという点だ。結論から言うと、売る方のメリットは大きいが、導入する側のメリットがまだまだ見えてこない状況といえる。

 一義的にはビッグデータが流行ると、サーバーとストレージが売れる。メニーコアも実用化されつつある現在、ビッグデータは並列された大量のCPUコアをフル活用してくれる用途だ。また、リーマンショック以降、重複排除などデータ容量の縮小をメインとしたアプローチが主流となってしまったストレージの分野でも、ビッグデータを実現するには大容量データを格納する箱が必要だと顧客に案内できる。身も蓋もない話だが、サーバーやストレージの単価下落を補うべく、台数を売るための施策として考えれば、ビッグデータは強力なメッセージといえる。

 もちろん、ビッグデータを用いたソフトウェアも売れる。オープンソースのHadoopは開発がまだまだ難しく、エンタープライズレベルの信頼性や可用性もあまり考慮されていないと言われる。また、HDDの読み出し速度などのボトルネックを解消しないと、分散処理の真のパフォーマンスを享受できない。そのため、IBMやEMC、HPなど大手のベンダーはHadoop向けのソフトウェアや管理ツールなどを提供している。ビッグデータ本来の実力を出すために、「改良の余地がある」のが、ソフトウェア業者やSIerにとってうまみのある部分だ。

Hadoopでの利用を前提としたHPのスケールアウト型サーバー

 では、こうしたベンダーやSIerはビッグデータのソリューションをどこに売り込むのだろうか? まずは既存のBIに限界を感じているエンタープライズの企業はターゲットだ。今まで機材やインフラ上の制限で捨てていたデータを再利用することで、売り上げ増加につながるのであれば、流通や小売りの企業は関心を持つだろう。また、医療や公共機関などの分野でも、今まで十分ではなかった研究開発や解析技術を補える可能性がある。

 しかし、今後ビッグデータが市民権を得るには、もう一歩踏み込んだメリットや訴求が必要になる。たとえばクラウドは、まず第一義にリソース共有によるコスト削減というメリットから訴求され、次に高い拡張性、運用管理負荷の軽減、災害対策、グローバル対応などの価値が徐々に認識されている状況だ。2012年は、より経営やビジネスという観点でのメリットが必要になってくるだろう。一方で、現状のビッグデータは、こうしたメリットや訴求ポイントが明確になっていない。単に「未曾有の量のデータ」があり、「これをより高速に解析する手段がある」というレベルにとどまっている。企業向けにおいては、どのようにビジネスに役立つのかという訴求が重要になる。

 ビッグデータでなにが変わるのか? どんなマジックが隠れているのか? そしてビッグデータをどのようにビジネスにしていくかという課題も含め、今年もいろいろな人の話を聞く必要があるようだ。

カテゴリートップへ

この連載の記事
  • 角川アスキー総合研究所
  • アスキーカード