画像クレジット:Stephanie Arnett/MITTR | Getty
ディープフェイクについて、誰もが見て見ぬふりをしている重大な事実がある。全面的な禁止は技術的に不可能かもしれないことだ。私たちが本当に必要としているものは何だろうか。
この記事は米国版ニュースレターを一部再編集したものです。
ディープフェイクとの闘いにおいて、実に心強いニュースがいくつかあった。数週間前、米国連邦取引委員会(FTC)が、人になりすますディープフェイクの使用を禁止する規則を最終的にまとめていると発表した。また、有力な人工知能(AI)スタートアップや大手テック企業も、2024年の選挙でAIの不正使用と闘うことに対し、それぞれの自主的なコミットメントを公表した。2月23日には、生命の未来研究所(Future of Life Institute)、全米映画俳優組合(SAG-AFTRA)、エンコード・ジャスティス(Encode Justice)などの市民社会団体が、ディープフェイクの禁止を求める新たなキャンペーンを明らかにした。
これらの取り組みは幸先の良いスタートであり、社会の意識を高めるものだが、細部には難しい問題が潜んでいる。英国や米国の一部州では、既存の規則がすでにディープフェイクの作成や拡散を禁止している。FTCは、AIプラットフォームによる人になりすますコンテンツの作成を違法とし、詐欺師に対して詐欺行為で得たお金を返還させるようにするつもりだ。
しかし、誰もが見て見ぬふりをしている重大な事実がある。全面的な禁止は技術的に不可能かもしれないという事実だ。デジタル著作権団体「アクセス・ナウ(Access Now)」の上級政策アナリスト、ダニエル・ロイファーは、誰かがオン/オフできるボタンのような簡単なものは存在しないと指摘する。
というのも、問題は現実に起こっており、もう元には戻せないからだ。
巨大テック企業は、ディープフェイクが引き起こす害について多くの非難を浴びている。しかし、彼らの名誉のために言っておくと、それらの企業はコンテンツ・モデレーション・システムを使って、例えば、ディープフェイク・ポルノを生成しようとする試みを検知し、阻止しようとしている(だからといって、完璧だと言っているのではない。テイラー・スウィフトをターゲットにしたディープフェイク・ポルノは、マイクロソフトのシステムで生成されたと伝えられている)。
さらに大きな問題は、有害なディープフェイクの多くが、オープンソース・システムや国家主体によって構築されたシステムを使って生成され、テレグラムのような追跡不可能なエンドツーエンド暗号化プラットフォーム上で拡散されていることだ。
本当に必要なのは、ディープフェイクのパイプラインに含まれるすべての行為者に対処する規制であるとロイファーは言う。それは、ディープフェイクの作成だけでなく、拡散を許していることに対しても、企業の大小問わず責任を負わせることかもしれない。つまり、ディープフェイクの拡散を遅らせるための規制に関する議論には、ハギング・フェイス(Hugging Face)やギットハブ(GitHub)などの「モデル・マーケットプレイス」も含める必要があるかもしれない。
それらのモデル・マーケットプレイスは、人々が独自のディープフェイク・アプリを構築するのに使える、ステーブル・ディフュージョン(Stable Diffusion)のようなオープンソース・モデルへのアクセスを容易にしている。これらプラットフォームは、すでに行動を起こしている。ハギング・フェイスとギットハブは、人々がツールにアクセスして有害なコンテンツを作成するために使用するプロセスに、ハードルを設ける措置を講じた。ハギング・フェイスはOpenRAILライセンスの積極的な支持者でもあり、ユーザーに対しモデルを所定の方法で使用することを約束させている。また、人々がワークフローに対し、高い技術基準を満たす来歴データを自動的に統合できるようにしている。
他の一般的な解決策として、より優れた透かしやコンテンツ来歴証明技術などもあり、それらもディープフェイクの検出に役立つだろう。しかし、それらの検出ツールも特効薬ではない。
AIが生成したコンテンツすべてに透かしを入れることを義務付けるルールは強制的な実施が不可能であり、透かしが本来の目的とは逆の役割をしてしまう可能性も高いとロイファーは言う。一例をあげると、オープンソース・システムにおいては、透かしや来歴証明技術が悪意ある行為者によって取り除かれる可能性がある。というのも、誰もがモデルのソースコードにアクセスできるため、特定のユーザーが不要な技術を単純に削除してしまう場合があるからだ。
もし、AIの生成したコンテンツに透かしを入れるのが大企業や最も人気のある独自プラットフォームだけになると、透かしがないコンテンツはAIで生成されたものではない、という意味になるかもしれない。
「強制的にすべてのコンテンツに電子透かしを入れさせることが、実際には、干渉できないシステムで生成される最も有害なコンテンツに信憑性を与えることになるでしょう」(ロイファー)。
私はロイファーに、希望を見い出せるような有望なやり方はあるかどうか尋ねた。ロイファーはしばらく考え込み、ようやく、もっと大局を見ることを提案した。ディープフェイクはソーシャルメディア上の情報や偽情報に関して、私たちが経験してきた問題の別の症状に過ぎないとロイファーは言う。「これがきっかけとなり、それらのプラットフォームを規制することに関して本当に何かが実行されるようになるかもしれません。国民の理解と透明性の実現を後押しすることにもなります」。
◆
縫合を学習するロボットに注目
AI訓練を受けたある外科ロボットが、数針の縫合を自力でできるようになった。これは、反復作業を実施する外科医の支援が可能なシステムの実現に向けた、小さな一歩である。カリフォルニア大学バークレー校の研究者たちが撮影したビデオには、2本腕のロボットが模造皮膚の単純な傷口を連続して6針縫う姿が写っている。ロボットは糸の張り具合を維持しながら、針を片方のロボットアームから別のロボットアームへと移動させて皮膚状の組織に通し、縫い目を完成させた。
今日、多くの医師が、ヘルニアの修復から冠動脈バイパスまで、さまざまな手術のためにロボットの助けを借りている。しかし、それらのロボットは、外科医を補助するために利用されているのであって、外科医の代わりとなるものではない。この新たな研究は、手術における縫合のような非常に複雑で入り組んだ作業をより自律的に実行できるロボットの実現に向けた、進歩を示すものである。その開発過程で得られた知識は、ロボット工学の他の分野でも役立つ可能性がある。 記事の続きはこちら。
AI関連のその他のニュース
ウィキメディア(Wikimedia)最高技術責任者(CTO):AIの時代でも人間の貢献者は重要。セレーナ・デッケルマンは、機械がコンテンツを生成するこの時代において、ウィキペディアの価値はさらに高まると主張している。 (MITテクノロジーレビュー)
エア・カナダは、自社のチャットボットが作り上げた払い戻しポリシーに従わなくてはならない。この航空会社は、自社の顧客サービス用チャットボットが同社の忌引旅行ポリシーについて不正確な説明をしたことを受け、顧客に料金の一部を払い戻しをしなければならなかった。いまだに作り話をしたりセキュリティ上の欠陥があったりするチャットボットをテクノロジー業界が販売する限り、このようなケースは増えることが予想される。(ワイアード)
レディット(Reddit)がユーザー・コンテンツを販売するため新たなAI訓練契約を締結。レディットは、自社プラットフォーム上でユーザーが作成したコンテンツへのアクセス権を、社名非公開のAI企業に提供するため6000万ドル規模の契約を締結した。オープンAI(OpenAI)とアップルも、同様の契約を結ぶべくパブリッシャー各社に打診していると伝えられている。人間が書いたレディットのコンテンツは、言語モデルを訓練するための高品質なデータを探しているAI企業にとって宝の山である。(ブルームバーグ)
グーグルが多様性に関する不具合で、ジェミニ(Gemini)のAI画像生成機能を一時停止。AIモデルにバイアスがあるのは、驚くことではない。私はそれらのモデルが明らかに人種差別的であると記事を書いたことがある。しかし、モデルをより包括的なものにしようとするグーグルの取り組みは、そのモデルに白人の画像を生成することをきっぱりと拒否され、しっぺ返しをくらった。(ザ・ヴァージ)
チャットGPT(ChatGPT)が一時的に発狂して予期せぬ出力をし、ユーザーを怖がらせる。2月第4週、人気のチャットボットであるチャットGPTがユーザーの問い合わせに対し、一貫性のない奇妙な返答を生成した。原因はバグだ。 (アーズ・テクニカ)