このページの本文へ

前へ 1 2 3 次へ

新市場になってないビッグデータとIoT。日本にあったデータ分析の姿は?

神林節炸裂!Asakusa Frameworkは「分散」から「並列」へ

2015年12月01日 07時00分更新

文● 大谷イビサ/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

11月27日、ノーチラス・テクノロジーズは「2015 Asakusa Framework Day」を開催。舌鋒鋭い物言いで知られる同社の代表取締役社長 神林飛志氏は、ビッグデータとIoT市場の現状やHadoop/Sparkと日本市場のミスマッチなどを指摘しつつ、次世代のAsakusa Frameworkの構想を披露した。

ビッグデータは既存のCRM、IoTはPoCレベル

 ノーチラス・テクノロジーズのAsakusa Frameworkは、業務システムのバッチ処理にHadoopやSparkでの分散システムを活用するための開発・運用フレームワーク。会計や在庫などの業務データから精度の高い分析情報を作成したり、バッチ処理に利用できるほか、分散システムのメリットを活かし、負荷分散や高い可用性などを実現する。OSSで公開されており、エンタープライズで多くの実績を持つ。

ノーチラス・テクノロジーズ 代表取締役社長 神林飛志氏

 イベントの後半で登壇したノーチラス・テクノロジーズの代表取締役社長 神林飛志氏は、ビッグデータやIoTの市場について「体感的にはビジネスになっていない。少なくとも調査会社が言ってきた1兆円、2兆円の市場にはなっていない」と厳しく指摘。ビッグデータと呼ばれている事例を見ても、Hadoopを使ったCRMに過ぎず、真新しい領域というわけではないと語る。「新しいことをやっているように見えているけど、クラスター分析も機械学習も数十年前からやってる。精度は上がっているけど、しょせん精度の問題」(神林氏)。

ビッグデータとIoTの現状認識

 実際、神林氏も前職ではビッグデータや機械学習で売れ筋商品の予想などをやったが、「CRMも確かに精度は上がるけど、結局オペレーションが間に合わない。売れそうな商品がわかっても、そのために業務を変えるのかという問題にぶち当たる」というのが実情。国内ではExadataやNetezzaのようなDWHアプライアンスで済むようなリプレース案件がほとんどで、「既存のDWH案件に毛が生えたくらい。もともとレッドオーシャンなので、追加でお金が出てくるわけではない」と語る。

 また、ブームになっている機械学習に関しては「正直、マシンラーニングはAIと関係ない。よく教科書を読んで欲しい」、IoTに関しては「自動車系では装置の故障ログをとろうという案件を聞いたことはあるが、なかなか最終イメージができてこないし、PoC(Proof of Concept)で終わっている。成功したら、どれくらいの金額と事業インパクトが出て、どんなオペレーションになるかといった事業計画まで持って行けているところは残念ながらない。まだまだ手探り」と指摘。IoTでありながら、インターネットで使っているところはほとんどなく、最終的には社内に閉じているところで実装する「Intranet of Things」になっていると語った。

 こうした現状から、神林氏は「ビッグデータは既存の分析の延長、IoTはPoCレベル。両方足しても、でかいマーケットにはなってない。マスコミや調査会社は将来でかくなると言いますが、聞き飽きました。そんなこと3年前に言ってましたが、もう2016年です」と指摘する。ビッグデータやIoTでメリットを得られるレベルまで、ユーザーが行ききっていないというのが神林氏の見た現状。「賢いユーザーはビッグデータがCRMであることに気がついている。顧客データが大事だと言うので、数千万円、数億円突っ込んだけど、きちんと売り上がったのかと社長に詰められると、ベンダーは沈黙する。回答せずに『社長、これからビッグデータですよ』なんて言ったら、普通は出入禁止ですよ」(神林氏)。

 現状、ITベンダーの業績は好調だが、これはあくまで既存システムのリプレースや法令対応のSIがメインで、ビッグデータやIoTの分野では投資は小さい。「データは確かに増えました。でも線形な伸びで、2~3倍。爆発的にはなっていないし、ハード買い換えればだいたいOK」という状況だ。

 実際、ノーチラスに持ち込まれる案件も小規模・中規模が圧倒的で、10~20ノードがメイン。「Web系でログ解析するようなところは100ノードもあるが、エンタープライズはほとんど10ノード。しかも5ノードスタートで、オンプレミスが9割」(神林氏)。ゴミの山から宝を探そうという謳い文句で始めてみたものの、運用管理できないデータを大量に溜めても、しょせんはゴミの山。大量のゴミデータを管理不能な状態で置いておくのではなく、小さいクラスターで分けておいた方がよいのは明らかだという。「100台のサーバーでこれからはビッグデータだというより、10ノードくらいで効果を出したいという方が普通の感覚で、事実そうなっている。ここらへんはメディアともケンカになったけど、全然感覚が違う」(神林氏)。

(次ページ、Hadoop/Sparkは日本市場にあっていない)


 

前へ 1 2 3 次へ

カテゴリートップへ

  • 角川アスキー総合研究所
  • アスキーカード