画像クレジット:Oscar Rejlander/Getty Museum
AIを利用した感情認識テクノロジーを厳しく規制しようという動きもある。人間でさえ、他人の感情を読み取るのが難しいとされるが、AIはどこまで可能なのだろうか。
この記事は米国版ニュースレターを一部再編集したものです。
私は最近、ニューヨークのお気に入りの場所の1つであるニューヨーク公共図書館へ行き、チャールズ・ダーウィンが書いた何百もの手紙や文章、考察メモの原本を見た。この有名な英国人科学者は書くことが好きで、それぞれのページにはその好奇心と観察力が生き生きと表れている。
ダーウィンは進化論を提唱しただけでなく、人間や動物の表情や感情の研究にも取り組んだ。彼は著書の中で、感情が実際にどれくらい科学的であり、普遍的であり、予測可能なものなのかじっくりと検討し、誇張された表情の人物をスケッチした。この図書館には、それらのスケッチも展示されていた。
私はこのテーマにピンとくるものがあった。
チャットGPT(ChatGPT)や汎用人工知能(AGI)、ロボットが人間の仕事を奪う可能性について人々が身構える中、規制当局が人工知能(AI)と感情認識に対するけん制を強化していることに気づいた。
先ほどのダーウィンの考察とはかけ離れた文脈における昨今の感情認識とは、映像や顔画像、または音声録音をAIによって分析し、ある人の感情や心理状態を特定する試みのことである。
このアイデア自体は、それほど複雑なものではない。たとえば、口を開け、目を細め、頭を後ろに反らしながら頬を縮めた姿を見たAIは、それを笑いとして記録し、被写体が喜んでいると結論付けるかもしれない。
しかし実際には、感情の判断は非常に複雑である。中には、AIがしばしば生み出す、疑似科学の危険で侵襲的な例だと主張する人もいる。
欧州デジタル・ライツ(European Digital Rights)やアクセス・ナウ(Access Now)など、プライバシー擁護団体や人権擁護団体は、感情認識の全面的な禁止を求めている。6月に欧州議会で承認された欧州連合(EU)のAI法案では、全面な禁止には至っていないが、警察活動、国境管理、職場、学校での感情認識の使用を禁止している。
一方、米国では一部議員らが感情認識AIを批判しており、最終的なAI規制につながる可能性が高まっている。規制推進を主導する議員の1人であるロン・ワイデン上院議員は最近、EUが規制に取り組んでいることを称賛し、「表情、目の動き、声のトーン、歩き方で、あなたが誰なのか、あるいはあなたが将来何をするのか判断するのは、とんでもないやり方です」と警告した。「それでもなお、何百万ドル、何千万ドルもの資金が、でたらめ科学に基づく感情検知AIの開発に注ぎ込まれています」。
しかし、なぜこれが最大の懸念事項なのだろうか? 感情認識に対する懸念は、どの程度確かな根拠に基づくものなのだろうか? ここで厳しい規制を設けることが、実は前向きなイノベーションを阻害することにならないだろうか?
すでに、感情認識テクノロジーをさまざまな用途に向けて販売している企業があるが、まだそれほど広く展開されているわけではない。たとえばアフェクティヴァ(Affectiva)は、人々の表情を分析するAIを、車の運転手が疲れているかの判断や、映画の予告編に対する人々の反応の評価に利用できないか模索している。また、ハイアービュー(HireVue)のように、有望な求人応募者を選別する方法として感情認識技術を販売する企業も存在する。
「一般論として、私は民間による感情認識テクノロジーの開発を許可することには賛成です。たとえば、全盲の人や弱視の人が、周りの人の感情をよりよく理解できるようにするなど、重要な用途があります」。ワシントンD.C.に拠点を置くシンクタンク、情報技術イノベーション財団(Information Technology and Innovation Foundation)のダニエル・カストロ副理事はメールでコメントした。
しかし、感情認識テクノロジーのその他の応用例は、もっと憂慮すべきものだ。いくつかの企業は、誰かが嘘をついているかどうか突き止めようとしたり、疑わしいと思われる行動に警告を発することができたりするようなソフトウェアを、司法当局に販売している。
EUが支援するパイロット・プロジェクト「アイボーダーコントロール(iBorderCtrl)」は、国境管理テクノロジーの一部として感情認識技術を提供している。プロジェクトのWebサイトによれば、この自動虚偽検知システムは「面接対象者の非言語的なマイクロジェスチャーを分析することにより、面接時の嘘をついている可能性を数値化する」という(ただし、「その有効性をめぐって科学的な論争がある」ことも認めている)。
しかし、感情認識技術を最も注目されるやり方で利用(この場合は乱用)しているのは、中国である。間違いなく、議員らもそれを知っているはずだ。
中国は、特に新疆ウイグル自治区でウイグル人を監視するために、感情AIを繰り返し使用してきたと、このシステムを警察署に設置したというあるソフトウェア・エンジニアは証言している。感情認識は、ウソ発見器と同様に、緊張や不安などの「心の状態」を見分けるように作られている。人権活動家がBBCに警告したように、「非常に威圧的な状況において計り知れないプレッシャーにさらされている人々は、当然ながら神経質になっており、それが有罪を示す兆候とみなされる」。中国の一部の学校では、生徒に対してもこのテクノロジーが使用され、理解度や成績が測定されている。
ブリュッセルを拠点とする欧州デジタル・ライツで上級政策顧問を務めるエラ・ヤクボフスカは、感情認識の「信頼できる使用事例」をまだ聞いたことがないと言う。「(顔認識と感情認識の)どちらも、社会的統制に関わるものです。誰が監視し、誰が監視されるのかということ、そして、権力がどこに集中するのかということに関わります」。
さらに言えば、感情認識モデルを正確にすることはできないという科学的根拠もある。感情は複雑であり、人間でさえ、たいていは他人の感情を読み取るのが下手だ。近年、より多くの優れたデータを利用できるようになり、また、コンピューティング能力も向上したおかげで、このテクノロジーは改善が進んだ。しかしそれでも、システムが目指している成果や、入力されているデータの良し悪しによって、精度は大きく変わる。
「このテクノロジーは完璧ではありません。しかし、それはコンピューター・ビジョンの限界というよりも、人間の感情は複雑で、文化や文脈によって変化し、明確ではないという事実の方が大きく関係しているのかもしれません」。情報技術イノベーション財団のカストロ副理事はこう述べている。
ダーウィンの話に戻ろう。この分野における根本的な葛藤は、科学の力で感情を判断できるかどうかということである。基礎となる感情の科学の進歩が続けば、そのうち感情コンピューティングにも進歩が見られるかもしれない。何も起こらない可能性もあるが。
それは、AIにおいて大きく広がったこの瞬間を表す、ちょっとした寓話である。AIは今、極端な誇大宣伝期にある。AIが世界をより理解可能で予測可能なものに大きく変えられるという考えは、魅力的かもしれない。とはいえ、AIの専門家であるメレディス・ブルーサードが問いかけたように、すべてのものを数学の問題に集約することはできるのだろうか?
◆
テック政策関連の気になるニュース
- 本誌のメリッサ・ヘイッキラ記者の記事によると、AI言語モデルには政治的なバイアスが入り込んでいる。右寄りのモデルもあれば左寄りのモデルもあり、本当に偏りのないモデルは実現できないかもしれないという研究者もいる。
- ニューヨーク・タイムズ紙のスティーヴン・リー・マイヤーズが、スウェーデンがロシア大統領府(クレムリン)による標的型オンライン情報操作をどのように阻止しているかということについて、興味深い長編記事を載せている。ロシアの目的は、NATO加盟を申請しているスウェーデン国内に分裂の種をまくことである。
- ケイト・リンゼイが、デジタル時代における死の性質の変化について、ジ・アトランティック誌に素晴らしい考察を書いている。電子メール、テキスト、ソーシャル・メディア投稿が、愛する人が亡くなった後も長く生き続け、悲しみと記憶を変えている(このテーマに興味があれば、この変化と、グーグルおよびツイッターによる削除ポリシーの変更との関連について私が書いた記事も読んでほしい)。
テック政策関連の注目研究
スイスの研究者による新たな研究によると、グーグル検索にとってニュースは非常に価値が高く、売上の大きな割合を占めている。この研究結果は、ニュースと出版物の経済学について、いくらか楽観的な見方を示してくれている。特に、もしあなたが私と同じように、ジャーナリズムの未来について深く心配しているのであれば、なおさらだ。コートニー・ラドシュが、私のお気に入りのメディアの1つであるテック・ポリシー・プレスで、この研究に関する記事を書いている(これに関連して、ジ・アトランティック誌でスティーブン・ウォルドマンが書いた、ローカル・ニュースを修正する方法に関するこの鋭い記事も読んだ方がいい)。