画像クレジット:Stephanie Arnett/MITTR | ImageFX, Envato
グーグル、マイクロソフト、アドビ、メタなどの巨大テック企業は、AIが生成した画像に「透かし」を入れる方向で動き出した。課題は残るが、ディープフェイク対策の前進は歓迎したい。
この記事は米国版ニュースレターを一部再編集したものです。
今回は人工知能(AI)の世界の心強いニュースを伝えられて、うれしく思う。気が重くなるテイラー・スウィフトのディープフェイク・ポルノ・スキャンダルや、AIが生成したバイデン大統領のロボコールが有権者に電話をかけて自宅待機を求めた事件のような政治関連のディープフェイクのまん延を受け、テック企業各社はAI生成コンテンツの検出能力を向上させるための取り組みを強化しつつあるからだ。
メタ(Meta)は2月6日、フェイスブック、インスタグラム、スレッズ(Threads)上のAI生成画像にラベルを付けることを発表した。メタのAIツールを使って画像を作成すると、その画像には目に見えるマーカーが追加されるようになる。また、目に見えない透かしやメタデータも画像ファイルに組み込まれる。メタによれば、その基準はAI研究の非営利団体パートナーシップ・オンAI(Partnership on AI)が示したベストプラクティスに沿っているという。
巨大テック企業は、画像、映像、音声にいわゆる「栄養成分表示ラベル」を付け加える有望な技術仕様も支持している。C2PAと呼ばれるオープンソースの技術仕様は、暗号技術を利用して、コンテンツの出所に関する詳細情報や技術者が「来歴(Provenance)」と呼ぶ情報を暗号化する。C2PAの開発者たちは、しばしばこのプロトコルを栄養成分表示ラベルに例える。つまり、コンテンツの出所がどこで、誰が(もしくは何が)作成したかを知らせてくれる(詳細はこちら)。
2月8日にはグーグルが、マイクロソフトやアドビといった他のテック大手と並んで、C2PAの運営委員会に参加することを発表した。グーグルは、新しい「Gemini(ジェミニ)」でAIが生成したすべての画像に、自社の電子透かしである「SynthID(シンスID)」を埋め込む予定だ。メタもC2PAへの参加を表明している。業界全体の標準が定められれば、どのシステムで作成されたかにかかわらず、AIの生成したコンテンツを各社がより簡単に検知できるようになる。
オープンAIも2月第二週、新たなコンテンツ来歴対策を発表した。同社のChatGPT(チャットGPT)とDALL-E(ダリー)3を使って生成された画像のメタデータに、透かしを追加する。画像に目に見えるラベルを組み入れることで、AIによって作成されたと示す予定だと同社は述べている。
これらの方法は幸先の良いスタートではあるが、絶対確実なものではない。 メタデータに含まれる透かしは、スクリーンショットを撮影するだけで簡単に迂回できるし、目に見える透かしは編集で切り取ることもできる。グーグルのSynthIDのような目に見えない透かしは、これらよりは期待できるかもしれない。SynthIDのような画像の画素を微妙に変化させる透かしは、コンピューター・プログラムなら検知できるが、人間の目では識別できない。この方法は改ざんがより難しい。とはいえ、AIが生成した映像や音声、さらにはテキストについては、ラベル付けと検知のための信頼できる方法が存在しない。
それでも、こうした来歴識別ツールを作ることには依然として価値がある。数週間前、私が生成AIの専門家ヘンリー・アジャーにディープフェイク・ポルノの防止方法についてインタビューした際に話してくれたように、ポイントは「いびつなカスタマー・ジャーニー」を作り出すことである。つまり、有害なコンテンツが作成・共有されるスピードをできるだけ遅らせるために、ディープフェイクの供給経路に障害と摩擦を加えるのだ。強い決意を持つ人物であればこれらの保護措置も無効化できるだろうが、小さなことの積み重ねにも意味があるはずだ。
テック企業各社がディープフェイク・ポルノのような問題を防ぐために導入する可能性のある、非技術的な解決策もたくさんある。グーグル、アマゾン、マイクロソフト、アップルなどの主要なクラウド・サービス・プロバイダーやアプリストアは、合意のないディープフェイク・ヌードの作成に使えるサービスの禁止に動くこともできる。また、企業規模がもっと小さくても、関連テクノロジーを開発しているスタートアップは、AIが生成したコンテンツすべてに透かしを入れるべきだろう。
希望を与えてくれることもある。このような自主的な措置と並行して、拘束力のある規制も登場し始めていることだ。欧州連合(EU)のAI法(AI Act)や、デジタルサービス法(DSA:Digital Services Act )などである。これらの規制はテック企業に対し、AIが生成したコンテンツを開示することと、有害なコンテンツをより素早く削除することを求めている。米国の国会議員たちの間でも、ディープフェイクに関して拘束力のあるいくつかのルールを成立させることに、新たな関心が集まっている。また、AIが生成したバイデン大統領のロボコールが有権者に電話をかけ、投票しないように求めた事件を受け、米国連邦通信委員会は2月第二週、そのような電話でのAIの使用を禁止すると発表した。
一般的に言って、私は自主的なガイドラインやルールについてはかなり懐疑的である。なぜなら、本当の意味での説明責任の仕組みがなく、企業はいつでも好きなときにルールの変更を選択できるからだ。テック業界は、自らを規制することに関して本当に悪い実績を持っている。競争が熾烈な成長主導型のテック業界では、「責任あるAI」のようなものが真っ先に切り捨てられることがよくある。
しかし、それにもかかわらず、これらの発表は非常に歓迎すべきものである。ほとんど何もない現状よりは、はるかに素晴らしいと言えるだろう。
◆
AI関連のその他のニュース
チャットボットのおかげで、より多くの人々がメンタルヘルス・サービスを利用するようになった。スタートアップのリムビック(Limbic)のAIチャットボットが、英国の国民保健サービスを通じてメンタルヘルス・サービスの紹介を受ける患者数の増加(特に助けを求める可能性が低く表面化しにくいグループに属する人々の増加)に役立ったことが、新たな研究で分かった。(MITテクノロジーレビュー)
このロボットは何の助けも借りずに部屋を片付けることができる。「OKロボット(OK-Robot)」と呼ばれる新たなシステムは、ロボットを訓練して今まで遭遇したことのない環境で物を拾わせたり移動させたりできる。これは、費用のかかる複雑な追加訓練を必要としないため、急速に改良が進むAIモデルと実際のロボットの能力との間のギャップを埋められる可能性があるアプローチだ。(MITテクノロジーレビュー)
AIをより「民主的」にするオープンAIの計画の内幕。この特集記事は、AIを人間の価値観に合わせる方法という技術的問題に対し、オープンAIのコンピューター科学者たちがどのように取り組もうとしているのかということに注目している。しかし、もっと大きな疑問が残る。AIはそもそも誰の価値観を反映すべきなのか? そして誰がその決定をすべきなのか?(タイム)
オープンAIのサム・アルトマン最高経営責任者(CEO)は、AI用チップを作るため数兆ドルの調達を望んでいる。同CEOは、会社に強力なAIモデルを訓練・実行するための十分なコンピューティング・パワーがないと、たびたび不満を漏らしてきた。報道によると、同CEOは世界のチップ製造能力を強化するため、アラブ首長国連邦政府の投資家たちと最大7兆ドルの調達について話し合っているという。(ウォール・ストリート・ジャーナル)
女性に「威厳をつける」ための新たなアプリ。なんと、女性の画像を性的なものに変えるアプリとは対照的に、一部の4ちゃん(4Chan)ユーザーは、生成AI(ジェネレーティブAI)を使って服を追加したり、タトゥーやピアスを消したり、より控えめな見た目にしたりしている。とはいえ、女性をそっとしておいてほしい気もするが、どうだろうか。(404メディア)