マイクロソフトの開発者向けイベント「de:code 2016」で行なわれた「Microsoft Cognitive Services」のセッション。“AIっぽい”アプリを迅速に作れるサービスの全体像と実装が説明された1時間で、コンピューターと話せるだけではなく、理解し合える未来がすでに目の前にあることが理解できた。
“AIっぽい”とはなにか? Cognitiveとはなにか?
ちょまどさんたちのワイガヤなセッションの後に参加したためか、エバンジェリストの大森彩子氏の口調がやたら落ち着いて感じられるMicrosoft Cognitive Servicesの入門セッション。大森氏は自己紹介の後、Cognitive Servicesを用いることで、視覚障害を持つ英マイクロソフトの社員がハンディを最低限に抑えて仕事している模様を収めたビデオを披露した。
視覚障害があっても、スマホで撮った風景やレストランのメニューをCognitive Servicesが自動認識し、音声やテキストで教えてくれる。AIや機械学習といったキーワードから想像されるエンタテインメント性の高いもの、産業的なソリューションではなく、こうした社会的に役立つアプリがCognitive Servicesであれば簡単に作れると大森氏はアピール。その後、大森氏は、人物の写真から何歳に見えるかを推定するHow-Old.netや写真の概要をテキストで説明するcaptionbotなど“AIっぽいアプリ”をいくつか紹介する。
こうしたアプリを実現すべく、人間の学習、知覚、思考をコンピューターで実現したのがいわゆる人工知能(AI)。大森氏は諸説あることを断りつつ、AIを支える技術として、統計学的な手法で解析を行なう機械学習、教師データなしで学習できるディープラーニング、条件付けの適応現象を実現する強化学習などを紹介。古き良きAIと計算知能、強いAI、弱いAIなどの分類を合わせて披露した。
こうしたさまざまなAIのカテゴリにおいて、Cognitive Servicesは人間の認知や思考に当たる機能をAPI経由で呼び出せるというサービスを提供する。現状、マイクロソフトのBotFrameworkを使えば、お客さんからサンドイッチのオーダーをとるようなBotを簡単にAIなしで作ることができる。これに加え、Cognitive Servicesを使えば、自然言語による入出力、人間のような五感を持つインターフェイス、会話内容に合わせたレスポンスなどが可能になるため、より“AIっぽい”ものが実現できるという。
サティアを気に入ったらしいあゆみちゃん
大森氏は、こうした“AIっぽい”アシスタントとして画面上に「あゆみちゃん」を召還。「こんにちは。初めまして、あゆみです。Cortana先輩に比べると、まだたどたどしい日本語だけど、よろしくお願いいたします」とややぎこちないイントネーションで挨拶する。それもそのはずで、あゆみちゃんは昨日生れたばかりで、「話すのもたどたどしいけど、聞く方はもっとたどたどしいありさま」(大森氏)という状態。とはいえ、一応会話はできるようだ。
あゆみちゃん:大森さん、今年のテコンドの様子を英語で教えてくれますから。
大森氏:テコンド?テコンド?
あゆみちゃん:テコンドじゃないですよ。de:codeですよ。ちゃんと聞いてください。
大森氏:それはあゆみちゃんが……。
あゆみちゃん:ああ、もう。昨日、de:codeで一番よかったセッションを教えてください。あっ、英語でお願いします。
大森氏:サティアのキーノートが一番よかった(英語)
あゆみちゃん:サティアのお話し、とてもよかったですよね。私に目が付いていたら、涙が出ています。
大森氏:えっ? あゆみちゃん、目付いてるよね。写真見せて(英語)
あゆみちゃん:こんなに素敵な画像がありましたよ。サティアはかっこいいですね。
大森氏:おっ。気に入ったようですね。ニュースを見せて(英語)
あゆみちゃん:ニュースも見つかりました。
という流れでテコンドのニュースも含めたde:codeの記事を表示したあゆみちゃんと大森氏は会話を終了。こうしたAIアシスタントを実現するためのCognitive Servicesの概要に話を進める。