このページの本文へ

検出技術だけでは解決できない、ディープフェイクの根深い問題

2019年12月18日 07時23分更新

文● Angela Chen

  • この記事をはてなブックマークに追加
  • 本文印刷
MS. TECH

今や「真実の終わり」の象徴となったディープフェイクは、一部の人たちからは選挙を思い通りに操作するための手段だと見られている(ディープフェイクのほとんどが依然としてポルノだという実態は気にしないようだ)。米国政府からハイテク大手、そしてスタートアップ企業まで、誰もがディープフェイク検出テクノロジーの開発に躍起になっている。

だが、合成メディアについて研究する非営利団体「ウィットネス(Witness)」が12月16日に発表した最新の報告書は、こうしたディープフェイク検出ツールがむしろ事態を悪化させる可能性を指摘している。

ねつ造された映像は新しい問題ではなく、最高のディープフェイク検出器でさえ明確にできない問題は山ほど存在する。たとえば、映像が編集されたものだと分かったところで、それを削除するかどうかは別問題だ。映像がただの風刺の場合もある。それでもアンバー・ビデオ(Amber Video)やトゥールピック(Truepic)、eウィットネス(eWitness)といった企業は、「キャプチャ時検証(verified-at-capture)」や「コントロールされたキャプチャ(controlled-capture)」テクノロジーの開発をあきらめていない。これらのテクノロジーは画像や映像の作成時に、制作者名やジオタグ、タイムスタンプをさまざまな手法を使って生成する。理論上は、画像や映像が改ざんされているかどうかを判断する手がかりとなる。

だが、ウィットネスの報告書は、これらのテクノロジーが逆に有害になる14の可能性を説明している。主なものは以下だ。

  • 開発中のツールは、人々を監視するために使われる可能性がある
  • 技術的な制約により、これらのツールが最も必要なところで動作しなくなる可能性がある(しかも、古いハードウェアでは使えない可能性がある)
  • ジェイルブレイクされたデバイスでは、検証可能な素材をキャプチャできない可能性がある
  • 企業がデータを削除したり、個人がデータを制御できないようにする可能性がある
  • 法廷でメディアの検証がより多く必要になれば、法的手続きが長くなり、より費用がかかる可能性がある

ウィットネスのプログラム部長であるサム・グレゴリーによれば、これらの問題を簡単に解決できる方法はない。ディープフェイク検出テクノロジーを開発中の企業は、こうした疑問に対処し、もっとも被害を受ける可能性が高い人々について考える必要がある、とグレゴリー部長は付け加える。合成メディアツール自体は、より倫理的な方法で作れる。たとえば、テクノロジー専門家のアビブ・オバディアは、責任あるディープフェイク・ツールの作り方に関するアイデアを提案している。ディープフェイク・ツールを作成する企業は、自社ツールの使用を許可する企業を慎重に調査した上で決定し、社会規範に反する利用者に対して明示的にペナルティを与えることができるはずだ。あらゆる種類の合成メディアが一般化していくなか、すべての人々の安全を守るには、さまざまな戦術が必要なのだ。

カテゴリートップへ

最新記事
最新記事

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ