悪意をもって使われた人工知能は最悪の敵
「たとえば人の声をそのまま出せる研究があります。声を出せなくなった人にとってはいいことですが、悪用されると『オレオレ詐欺』し放題。いくらでもだませてしまう。悪用される危険性はありながら、技術としては嘘をつけるというのが人工知能のかなり重要な部分です」と松原会長。
もっと単純に「嘘をついているのが誰か」がわかるということになれば、犯罪捜査に使うことも考えられるだろう。生体情報とともに、会話から論理矛盾を見つけさせるような捜査ができてもおかしくない。
人間より人工知能のほうが正確に「取り調べ」できるかもしれないし、逆に人工知能を悪用した冤罪事件が生まれる可能性もある。
Pepperのようなコミュニケーションロボットは1:1の関係を基本とする。しかし、人間社会に混じる形で人工知能が生活に組みこまれることになれば、高度な社会性を持ち、自分(利用者)が有利になる行動をとることも考えられる。
そのとき人工知能の行動は、誰の責任になるのか。最終的に「ボタンを押す」のが利用者であるとしても、そう判断させたのが人工知能だったとしたら。
技術のすごさを感じるとともにだんだんうすら恐ろしくなっていくが、実際のところ、人工知能が克服すべき課題はまだまだ多い。いちばん難しいのは、人狼がただ「勝てばいい」というだけの単純なゲームではなく、参加者を「今回のゲームは楽しかったな」と感じさせることに本来の目的があるという点だ。
人狼をテーマにした芝居『人狼 ザ・ライブプレイングシアター』(TLPT)を手がけ、『人狼ゲームで学ぶコミュニケーションの心理学』の著書もある児玉健氏は、感情・指導者・伏線という要素が人狼を面白くしていると話す。