このページの本文へ

フェイク画像でも影響力変わらず、AI改変コンテンツ対策に限界

2026年02月06日 15時10分更新

文● James O'Donnell

  • この記事をはてなブックマークに追加
  • 本文印刷
Michael M. Santiago/Getty Images

画像クレジット:Michael M. Santiago/Getty Images

学術誌の研究によれば、人々は偽物だと告げられても、そのコンテンツに感情的に左右され続ける。アドビらが推進したコンテンツ認証イニシアチブなど対策ツールは失敗し、真実検証だけでは社会的信頼を生み出せない時代に入りつつある。

長らく警告されてきた、真実の衰退の時代。それが今ここにあることを納得してもらうには、何が必要だろうか。人工知能(AI)コンテンツが人々を欺き、嘘だとわかっても、そのコンテンツが私たちの信念を形成し、その過程で社会の信頼を蝕む時代が到来している。先日執筆した記事は、私を限界点まで押し上げた。そして、この危機への対処法として売り込まれたツールが惨めに失敗していることも実感させられた。

私は、移民局を管轄する米国国土安全保障省が、グーグルとアドビのAI動画生成ツールを使用して一般向けコンテンツを制作していることを初めて確認したと報じた。このニュースは、移民局がトランプ大統領の大量強制送還政策を支持するコンテンツでソーシャルメディアを溢れさせている中で発表された。そうしたコンテンツの中には、「大量強制送還後のクリスマス」に関する動画のようにAIで作られたと思われるものが含まれている。

しかし、このニュースについて読者からもらった2種類の反応は、私たちが置かれている認識論的な危機について、同じくらい多くを物語っているかもしれない。

1つ目の反応は、ホワイトハウスが1月22日に移民・関税執行局(ICE)に抗議する活動で逮捕された女性のデジタル加工された写真を投稿していたため、驚かなかったというものだった。写真はその女性を、ヒステリックに涙を流しているように見せていた。ホワイトハウスの副広報部長ケイラン・ドーは、ホワイトハウスが写真を加工したかどうかの質問には答えなかったが、「ミームは続くでしょう」と書いた

2つ目の反応は、報道機関も同じことをしているのだから、国土安全保障省が一般向けコンテンツの編集にAIを使用していることを報じても意味がないというものだった。こう反応した人たちは、ニュースネットワークの「MSナウ(MS Now、旧MSNBC)」がアレックス・プレッティのAI編集された画像を共有し、彼をより魅力的に見せていたという事実を指摘した。この事実は、ジョー・ローガンのポッドキャストからのクリップをはじめとする、多くのバズり動画を生み出した。つまり、火には火で対抗するということか。MSナウの広報担当者は、そのニュース番組が編集されたものと知らずに画像を放送したとスノープス(Snopes)に語った

だからと言って、これら2つの改変コンテンツの事例を同じカテゴリーに分類したり、真実がもはや重要でないという証拠として読み取ったりして良いわけではない。一つは米国政府が明らかに改変された写真を一般に共有し、意図的に操作されたかどうかの回答を拒否したケースであり、もう一つは報道機関が改変されたと知るべきだった写真を放送したが、その間違いを開示するためにある程度の措置を取ったケースである。

これらの反応によって、私たちがこの瞬間に向けて集合的に準備していた方法に欠陥があることが明らかになった。AI真実危機に関する警告は、何が本物かを見分けられないことが私たちを破滅させるので、真実を独立して検証するツールが必要だという論点を核として展開されていた。私の2つの暗い結論は、これらのツールが失敗しているということ、そして、真実の検証は依然として不可欠だが、もはやそれだけでは約束された社会的信頼を生み出せないということである。

例えば2024年には、アドビが共同設立し、主要テクノロジー企業が採用した「コンテンツ認証イニシアチブ(Content Authenticity Initiative)」について多くの宣伝があった。これはコンテンツにラベルを付けて、いつ、誰によって作られたか、AIが関与していたかを開示するものだった。しかし、アドビは完全にAI生成されたコンテンツにのみ自動ラベルを適用する。それ以外の場合、ラベルは作成者の選択制である。

改変された逮捕写真が投稿されたXのようなプラットフォームは、とにかくそのようなラベルをコンテンツから削除できる(写真が改変されたという注記はユーザーによって追加された)。プラットフォームは単にラベルを全く表示しないことも選択できる。

ホワイトハウスの写真がAI改変されたと示された後でもどれほど注目を集めたかに気づいた私は、学術誌『コミュニケーションズ・サイコロジー(Communications Psychology)』に発表された、非常に関連性の高い新しい論文を見つけて衝撃を受けた。論文の研究者らは、犯罪への偽の「自白」を見た参加者は、その証拠が偽物だと明確に告げられた後でも、個人の有罪を判断する際にそれに依存することを発見した。つまり人々は、見ているコンテンツが完全に偽物だと学んでも、感情的にそれに左右され続けるのである。

「透明性は役立ちますが、それだけでは十分ではありません」と、偽情報専門家のクリストファー・ネーリングは最近、この研究の発見について書いた。「私たちはディープフェイクに対して何をすべきかの新しいマスタープランを開発しなければなりません」。

コンテンツを生成・編集するAIツールはより高度になり、操作しやすくなり、実行コストも安くなっている。これらすべてが、米国政府がそれらの使用に対してますます費用を支払っている理由である。私たちはこのことを十分に警告されていたが、主な危険が混乱である世界に向けて準備することで対応した。代わりに私たちが入ろうとしているのは、真実ではないと暴露されても影響力が持続し、疑念が容易に武器化され、真実の確立がリセットボタンとして機能しない世界である。そして真実の擁護者たちは既に大きく後れを取っている。

カテゴリートップへ

  • 角川アスキー総合研究所

MSIが変える、未来のクリエイターを育てる教育環境

アスキー・ビジネスセレクション

ピックアップ