ユーザーとの会話で学習するチャットボット「テイ(Tay)」は、2年前にツイッターなどで公開されるとあっという間に人種差別的発言を連発するようになった。しかし、この件は人工知能(AI)研究者にとって大きな教訓になる。
「テイ(Tay)」のことを覚えているだろうか。マイクロソフトが2年前にツイッターなどのSNS上に登場させたところ、あっという間に人種差別的、セックス狂的、ネオナチ的発言を連発するようになったチャットボットのことだ。
そもそもは楽しい社会実験となるはずだった。願わくば一般の人に楽しんで語りかけてもらい、チャットボットの学習に協力してもらうのが目的だった。しかしテイの生みの親にとっては悪夢になってしまった。ユーザーはあっという間にテイに汚い言葉を使わせる方法を見つけた。マイクロソフトは24時間も経たないうちにテイのネット接続を解除した。
それでもロシアの巨大テック企業ヤンデックス(Yandex)のマシン・インテリジェンス研究部門の責任者を務めるミシャ・ビレンコ博士は、テイの不始末は人工知能(AI)アシスタント開発分野にとっては貴重な経験になったと考えている。
サンフランシスコで開催されたMITテクノロジーレビュー主催の年次カンファレンス「EmTechデジタル」で3月27日に登壇したビレンコ博士は次のように語った。汚い言葉を覚えさせ真似するよう簡単に操れるなどのテイの脆弱性を分析することで、下手をするとどのような事態を招きかねないかよい教訓になったという。
テイが陽気なボット(19歳の冗談好きな女性の人格を持つように訓練されていた)から、あっという間にモンスターAIへとなり果てた様をみることで、問題を素早く修正できることがいかに重要であるかが明らかになったとビレンコ博士はいう。それはたやすいことでない。さらに人々が、AIを擬人化して扱う傾向が強いこともわかった。AIは統計データに基づいて動く機械ではなく、固有の信念を持つ存在だと思われているようだ。
「マイクロソフトはテイの件で集中砲火を浴びましたが、事例研究としては本当に役に立ちます」とビレンコ博士は語った。
チャットボットやAIアシスタントは、2016年以降大きく様変わりしている。ずっと一般的になっており、スマホアプリからスマートスピーカーまでさまざまな機器で利用でき、ますます高性能になりつつある。しかしテイの開発目的の1つについては、いまだに不得手なままだ。人格があるように振る舞い、雑談をするという点だ。
ビレンコ博士はこの状況がすぐに変わることはないだろうという。少なくとも今後5年間は厳しいようだ。人間が交わす会話は「とても難しいものです」と語った。