このページの本文へ

前へ 1 2 次へ

急変貌する“巨人”―「IBM InterConnect 2016」レポート 第3回

IBM InterConnect 2016で語られた、IoT時代にWatsonが必要とされる理由

なぜ「コグニティブIoT」か、IBMがWatson+IoTで目指す世界

2016年02月26日 08時00分更新

文● 大塚昭彦/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

 IBMは米国時間2月23日、開催中の「IBM InterConnect 2016」において、コグニティブコンピューティングサービス「Watson」の新しいAPIを発表した。同イベントでは、昨年発足したWatson IoT事業部門幹部が、IoT時代におけるWatsonの“コグニティブ”技術の重要性、IBMが目指す「コグニティブIoT」の世界を語った。

IBMでは昨年、Watson IoT事業部門を立ち上げ、「Watson IoTプラットフォーム」の提供もスタートしている

オンラインデートもWatsonがサポート? 感情を理解する新APIが登場

 IBMでは同社のPaaS「IBM Bluemix」を通じて、すでに30を超えるWatson APIを提供している。先週には日本語対応APIの提供も開始したばかりだ。

 今回のInterConnectで発表された新しいAPIは、チャットや電子メールなどのテキストから「喜び」や「怒り」といった感情のトーンを理解する「Tone Analyzer」、自然言語解析APIスイート(AlchemyAPI)に組み込まれて同様の感情分析を行う「Emotion Analysis」、画像に含まれるモノや意味を識別する「Visual Recognition」の3つとなる(いずれもベータ版、日本語未対応)。

「Tone Analyzer」。チャットやメールのテキストから喜び、怒り、嫌悪といった感情の「トーン」を読み取る(画像はデモサイトより)

「Visual Recognition」。画像に含まれるモノや意味を識別する(画像はデモサイトより)

 加えて、提供中のテキスト読み上げ音声合成API「Text to Speech」では、感情を込めた口調での読み上げを可能にする「Expressive Text to Speech」機能が追加された(現在は英語のみ対応)。テキストにSSMLタグを挿入することで、「ウキウキした口調で」「謝罪するときの口調で」「確信のない口調で」といったスタイルの読み上げが可能になる。

「Expressive Text to Speech」。タグで指定することで“感情を込めた”音声合成読み上げができるようになった

 API以外にも、iOS(Swift)やUnity向けのWatson SDK提供も開始しており、30以上のAPIを介してWatsonの能力を活用するモバイルアプリの開発も容易になっている。

 InterConnectの基調講演では、Watson事業部門GMのデビッド・ケニー氏が、今回の新APIを活用することで「より感情的なコミュニケーションを支援するアプリケーションが開発できる」と紹介した。

IBM Watson事業部門ジェネラルマネージャーのデビッド・ケニー(David Kenny)氏

 たとえば、オンラインデートサイト(お見合いサイト)のConnectidyでは、Tone Analyzerでユーザー間のチャットのやり取りを分析し、そのトーンを表示する仕組みを開発した。これにより、ユーザーは相手の感情が理解しやすくなり、同時に、自分の意図が誤解されないような内容でメッセージを送れるようになったという。

チャットのやり取りをWatsonが感情面から分析することで、「プロフィール情報だけでは難しい、ユーザー同士の正確なマッチングが可能になる」(Connectidy幹部)

 そのほかのAPIについても、レビューサイトに書き込まれた口コミ情報のトーン分析、「野球とクリケット」のような見分けの難しい画像の分類といった活用例が紹介された。

「Emotion Analysis」の活用例。大量の口コミ評価を感情のトーンで定量的に分析、マーケティングなどに役立つ

前へ 1 2 次へ

カテゴリートップへ

この連載の記事