このページの本文へ

テイラー・スウィフトも被害、ディープフェイク・ポルノ対抗策は?

2024年02月01日 06時58分更新

文● Melissa Heikkilä

  • この記事をはてなブックマークに追加
  • 本文印刷
Sarah Rogers / MITTR | Getty

画像クレジット:Sarah Rogers / MITTR | Getty

世界有数のポップスターであるテイラー・スウィフトが悪質なディープフェイク・ポルノの被害に合った。現時点での対抗策となる3つの方法を紹介する。

世界有数のポップスターであるテイラー・スウィフトの性的画像が先週、ネット上で拡散された。ソーシャルメディア・プラットフォームのX(旧ツイッター)で数百万人もの人々が、本人の同意なしに作成されたディープフェイク・ポルノを閲覧したのだ。Xはそれ以来、スウィフトに関する検索をすべてブロックするという思い切った措置で問題の収束を図っている。

ディープフェイクは新しい現象ではなく、何年も前から存在している。しかし、生成AIの台頭により、人工知能(AI)が生成した画像や動画からディープフェイク・ポルノを作成したり、セクハラをしたりすることがかつてないほど容易になっている。

生成AIと合成メディアを専門とするAI専門家、ヘンリー・アジダーによると、生成AIに関するさまざまな被害の中で最も多いのが合意なしのディープフェイクであり、被害者の大半は女性だという。

ただし、希望もある。新しいツールや法律ができれば、攻撃者は人々の写真を悪用しにくくなる。また、加害者の責任を問えるようになるかもしれない。

ディープフェイク・ポルノに対抗する3つの方法を紹介しよう。

1. 透かし

ソーシャルメディア・プラットフォームは、サイトにアップロードされた投稿を精査し、ポリシーに反するコンテンツを削除している。しかしXのスウィフト動画が示すように、このようなプロセスは良く言っても不完全であり、多くの有害コンテンツを見過ごしている。また、本物のコンテンツとAI生成コンテンツの区別も難しい。

問題を技術的に解決する方法の1つに「透かし」がある。「透かし」は、画像内に目に見えない信号を隠しておき、コンピューターがAI生成画像かどうか識別する際に役立てるというものだ。例えば、グーグルは「シンスID(SynthID)」というシステムを開発している。ニューラル・ネットワークを用いて画像ピクセルを変更し、人間の目には見えない「透かし」を追加するというものだ。この「透かし」は、画像が編集またはスクリーンショットされた場合も検出できる設計になっている。理論的には、このツールを使用すればコンテンツに対する企業の節度が向上し、合意なしのディープフェイクを含む偽コンテンツの迅速な発見に役立つ。

メリット:「透かし」は、AI生成コンテンツをより簡単・迅速に特定し、削除すべき有害な投稿を特定するのに有効なツールになるだろう。AIスタートアップ「ハギング・フェイス(Hugging Face)」の研究者であり、AIシステムのバイアスを研究しているサーシャ・ルッチオーニも、「すべての画像が最初から透かしをデフォルトで使用すれば、攻撃者は合意なくディープフェイクを作成することが難しくなります」と話す。

デメリット:このシステムはまだ実験段階であり、幅広く使用されているわけではない。強い意志をもった攻撃者による改ざんも、まだ可能だ。さらに、企業側もこのテクノロジーをすべての画像に全面的に使用していない。例えば、グーグルのAI画像生成システム「イメージェン(Imagen)」のユーザーは、AI生成画像に透かしを入れるかどうかを選択できる。こういった要因すべてが、ディープフェイク・ポルノとの闘いにおけるこうしたツールの有用性を阻害している。

2. 保護シールド

現時点では、誰でも無料でネットに投稿された画像をディープフェイク画像作成に使える。さらに、最新の画像作成AIシステムは非常に進化しているため、AI作成コンテンツを偽物だと証明することが難しくなってきている。

しかし、AIシステム内で画像が歪んだり変形して見えるようにすることで、「AIによる搾取」から画像を保護するといった新たな防御ツールも次々に開発されている。

マサチューセッツ工科大学(MIT)の研究者が開発した「フォトガード(PhotoGuard)」も、こういったツールの1つだ。フォトガードは、人間の目に見えない方法で写真のピクセルを変化させ、保護シールドのような働きをする。フォトガードで処理した画像を、ステーブル・ディフュージョン(Stable Diffusion)などの画像生成AIアプリで加工しようとすると、仕上がりが非現実的なものとなる。シカゴ大学の研究者が開発した「フォークス(Fawkes)」も同様のツールだ。隠し信号で画像を覆うことで、顔認識ソフトウェアの顔認識を難しくするものだ。

その他にも「ナイトシェード(Nightshade)」 と呼ばれる新ツールは、AIシステムが画像を使用しようとする際の反撃に役立つ。シカゴ大学の研究者が開発したこのツールは、目に見えない「毒」のレイヤーを画像に適用する。ナイトシェードは、著作権を有する画像をテック企業がアーティストの合意なくスクレイピングできないようにすることで、アーティストを保護するために開発されたものだ。しかし、理論的には、画像所有者がAIシステムに画像をスクレイピングされたくない場合、どんな画像にも使用できる。ハイテク企業が合意なしにAIの訓練用材料をネットで入手しようとすると、「有毒」な画像がAIモデルを破壊する。猫の画像が犬になったり、テイラー・スウィフトの画像が犬になったりするのだ。

メリット:これらのツールを使用すると、攻撃者が画像を用いて有害コンテンツを作成することが難しくなる。とくに出会い系アプリやソーシャル・メディア企業がこれらのツールをデフォルトで使用すれば、個人をAI画像の悪用から保護するために一定の効果が期待できるとアジダーは言う。

ルッチオーニは「我々は皆、インターネットに投稿するすべての画像にナイトシェードを使用すべきです」と話す。

デメリット:これらの防御シールドは、最新世代のAIモデルに対して効果的だ。しかし、将来的にはAIモデルがこれらの防御メカニズムを、無効化できるようになるかもしれない。また、すでにネットにある画像には機能しないうえ、有名人の場合はネットにアップロードされる写真をコントロールできないため、有名人の画像にこの機能を適用するのは難しい。

AI倫理コンサルティング・監査会社「パリティ・コンサルティング(Parity Consulting)」を運営するラマン・チョードリー博士は、「これは壮大ないたちごっこになるでしょう」と言う。

3. 規制

技術的な解決には限界がある。この状況を永続的に変える唯一の方法は「規制の強化」だとルッチオーニは話す。

テイラー・スウィフトのディープフェイク問題は、ディープフェイク・ポルノを取り締まろうとする動きを加速させた。ホワイトハウス(大統領府)は「憂慮すべき」問題だとし、議会に立法措置をとるよう促した。これまでの米国は、州ごとに異なるアプローチによってテクノロジーを規制してきた。例えば、カリフォルニア州とバージニア州は合意なしのディープフェイク・ポルノ作成を禁止している。ニューヨーク州とバージニア州も、この種のコンテンツ配信を禁止している。

しかし、ついに連邦レベルの行動がとられることになった。「フェイク・ヌード画像の共有を連邦犯罪とする」という党派を超えた新法案が、最近、米国議会に再提出された。ニュージャージー州の高校で起きたディープフェイク・ポルノ問題も、「親密画像のディープフェイク防止法(Preventing Deepfakes of Intimate Images Act)」と呼ばれる法案による対処を立法者に促すきっかけとなった。スウィフトの件でこの問題が注目を浴びたことから、党派を超えた支持がさらに集まる可能性がある。

世界の立法者たちも、テクノロジー法の厳格化を推進しつつある。2023年に可決された英国の「オンライン安全法(Online Safety Act)」は、ディープフェイク・ポルノ素材の共有を違法とした。ただし、その作成は違法としていない。違反者は最長6カ月の懲役刑に処される可能性がある。

欧州連合(EU)は数多くの新法案によって、さまざまな角度から対応している。包括的なAI法は、ディープフェイク作成者に対し、素材がAIによって作成されたことを明確に開示するよう義務付けている。さらに、テック企業はデジタルサービス法(Digital Services Act)により、有害コンテンツのより素早い削除が求められるようになる。

2023年に施行された中国のディープフェイク法は、最も踏み込んだ内容となっている。中国でディープフェイクを作成する者は、さまざまな手続きを通して違法または有害な目的によるサービス利用を阻止しなければならない。画像をディープフェイクを使って加工する前にユーザーの同意を得、人々の身元を確認し、AI生成コンテンツだというラベル付けをする必要があるのだ。

メリット:規制は被害者に救済手段を提供し、合意なくディープフェイク・ポルノを作成した者に責任を負わせることができるため、強力な抑止力となる。さらに、「合意なしのディープフェイク作成は許さない」という明確なメッセージにもなる。アジダーによると「このようなディープフェイク・ポルノを作成する者は性犯罪者である」ということを明文化した法律や啓発キャンペーンは、実際に効果をもたらす可能性があると話す。「こうした規制により、このようなコンテンツが有害ではない、または真の性的虐待ではないとする一部の人々の少々無関心な態度を変えることができるでしょう」(アジダー)。

デメリット:この種の法律を施行するのは難しいだろうとアジダーは言う。現在の手法では、被害者を攻撃した者を特定し、加害者として立件するのは難しいだろう。また、ディープフェイクの作成者が異なる管轄区域に住んでいる場合もある。そのような場合は、より訴追が難しくなる。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ