画像クレジット:Sarah Rogers/MIT Technology Review | Getty Images
アラン・チューリング研究所の調査によると、選挙干渉には生成AIよりも従来のソーシャルボットなどが主に使われている。米大統領選を前に、各州で対策訓練が実施されているが、候補者自身によるAI利用の懸念も浮上している。
この記事は米国版ニュースレターを一部再編集したものです。
余計なことはするな。これが、悪意ある国家が選挙に干渉するとき、世界中で共通するやり方のようだ。
生成人工知能(AI)ブームが最初にやってきた頃、識者や専門家が抱いた最大の懸念のひとつは、超高性能なAIによるディープフェイクが選挙に影響を与えるために使われるかもしれない、ということだった。しかし、英国のアラン・チューリング研究所が発表した新しい研究によると、そのような懸念が誇張だった可能性があるという。AIが生成した虚偽やディープフェイクは、今年これまでに英国、フランス、欧州議会、そして世界中の他の国々であった選挙を見ても、結果に何の影響も及ぼしていないようなのだ。
研究を担当したサム・ストックウェル研究員によると、ロシアのような国家が選挙へ干渉する際に頼りにしているのは、生成AIではない。コメント欄を溢れさせるソーシャルボットを利用して分裂を生み出し、混乱を引き起こすなど、すでに確立している手法を使っているのだ。 詳しくはこちらをお読みいただきたい。
ただ、今年最も重要な選挙のひとつが、まだこの先に控えている。およそ1カ月後、アメリカ国民は投票所に向かい、次期大統領としてドナルド・トランプとカマラ・ハリスのどちらかを選ぶことになるのだ。 ロシアは、この選挙に備えてGPU(画像処理装置)を温存しているだろうか?
米国の選挙でもAIによるデマがどのように広がっているのかを監視しているストックウェル研究員は、これまでのところ、そのような事態には至っていないようだという。「悪人たちは、『長年使ってきて確立済みの手法』に今も依存しています。長年と言っても、何十年も続いているわけではありませんが。米国の大衆の間で親ロシア政策が支持を集めているかのような印象を作り出す手口としては、ソーシャルボットアカウントなどが利用されてきました」と彼はいう。
そして、生成AIによるツールを試してみたが、効果はあがっていないようだと彼は補足する。例えば、ロシアと強いつながりのある組織的情報活動「コピー・コップ(Copy Cop)」は、ウクライナでのロシアの戦争について、親ロシア派の言い分を反映するように、チャットボットを使って本物のニュース記事を書き換えようとしている。
問題はというと、公開した記事からプロンプト(指示テキスト)を削除し忘れていることだろう。
短期的に見ると、より直接的な害を防ぐためにできることが米国にはいくつかある、とストックウェル研究員はいう。 例えば、アリゾナ州やコロラド州など一部の州ではすでに、選挙管理者や司法当局とレッドチーミング演習を実施し、選挙日をAIの脅威が襲う最悪のシナリオをシミュレーションしている。また、情報拡散活動を暴き、覆し、撃退できるように、ソーシャルメディアプラットフォーム、オンラインセーフティチーム、ファクトチェック組織、デマ研究者、そして司法当局の間で協力体制を強化する必要がある、とストックウェル研究員は述べている。
しかし、国家がディープフェイクを利用していないという事実は、候補者への抑止力にはならない。最近では、ドナルド・トランプがAI生成画像を使用し、テイラー・スウィフトの支持を得たとほのめかした(その直後、このポップスターはハリスを支持すると表明した)。
私は今年の初め、超現実的なディープフェイクが秘める可能性と、私たちが日々利用している情報にテクノロジーがどう影響するのか探る記事を書いた。そこで述べたように、日々触れる情報に対する強い疑念と不信を私たちに抱かせてしまう恐れがある。そして、悪者や日和見主義の政治家がその疑念につけ込み、真正な情報を偽物であると嘘をつくという実質的なリスクがある。これは「嘘つきの配当」と呼ばれている。
政治家がAIを利用する方法について、早急にガイドラインを策定する必要がある。 現在、選挙の候補者が選挙活動において、倫理的にAIを利用する方法をはっきりとさせる説明や、許容範囲を分ける明確な一線が欠けている、とストックウェル研究員はいう。私たちは、AIが生成した広告を何の注釈もなしで共有する候補者や、他の候補者の活動を「AIが作ったものだ」と非難する候補者を目にしている。そのような行為が増えていくと常態化してしまう、と彼は付け加えた。そして、これまでに見てきたことのすべてが、選挙候補者によるAIの悪用は始まったばかりだと示唆している。
未知の環境でロボットにタスクを実行させる人工知能(AI)
未知の環境でロボットに何かをさせるのは難しい。研究者は、ロボットを置く場所が変わると、その都度新しいデータを使ってロボットを訓練しなければならないが、かなりの時間と費用がかかってしまう恐れがある。
今回、研究者たちは、追加の訓練やファインチューニング(微調整)なしに、未知の環境で基本的なタスクをこなすことをロボットに教え込む5種類のAIモデル「ロボット・ユーティリティー・モデル(RUMs:Robot Utility Models)」を開発した。このRUMsを使うと、それぞれ独立した5種類のタスクをロボットに実行させることができる。未知の環境で、ドアや引き出しを開け、ティッシュやバッグ、円筒形の物体を拾うタスクを90%以上の成功率で実行できるのだ。さらにこの手法によって、家庭へのロボット導入がより簡単かつ低コストになる可能性がある。 詳しくは、こちらで本誌のリアノン・ウィリアムズ記者による記事をご覧いただきたい。