このページの本文へ

大統領選のディープフェイク対策は不十分、米下院委員会が指摘

2019年08月08日 07時46分更新

文● Will Knight

  • この記事をはてなブックマークに追加
  • 本文印刷

米国大統領選挙がいよいよ来年に迫っている。だが、下院情報特別委員会のアダム・シフ委員長によると、フェイスブック、グーグル、ツイッターの大手インターネット企業3社はいずれも、人工知能(AI)が生成した偽映像「ディープフェイク」への具体的な対抗策を持っていないようだという。

カリフォルニア州選出のシフ議員(民主党)は8月2日、前述の3社は「機械によって不正に操作されたメディアやディープフェイクによって生じる課題を深刻なものとしてとらえ始めています。しかし、このテクノロジーが次の選挙にもたらす極めて有害な影響に対する備えはまだまだ不十分です」と述べた。

だが、取り乱すことはない。実際、AIを使って捏造された映像を見分ける新たな技術が登場している。

ディープフェイク映像は、近年の機械学習技術の進歩を利用して、映像内の人物の顔を自動ですり替えたり、その他の現実を曖昧にするようなトリックを仕掛けたりする。シンプルなディープフェイク作成ツールはWebからダウンロードでき、シュールな処理結果の例はインターネットのあちこちで多数見ることができる。

映像の改ざん自体は昔からあるが、 AIによって、高度な改ざん技術がより簡単に利用可能になっている。 選挙中には、最後の最後で有権者の判断を揺るがせることを目的にディープフェイクが使われるかもしれない。今年5月には、呂律の回らない状態でスピーチしているかのように加工されたナンシー・ペロシ下院議長の映像が、ソーシャルメディア上に瞬く間に出回った。

現在、ディープフェイクを見分けるにはいくつかの方法がある。たとえば、不規則な瞬きはその映像が偽造されたものであることを示す明らかな兆候の1つだ。しかし、ディープフェイク映像の特定はいたちごっこだ。なぜなら、AIアルゴリズムは通常、指定した欠点を補うように訓練できるからだ。

今年6月に数人のデジタル・フォレンジック専門家が新たに発表した論文には、より信頼性の高い検出手法の概要が示されている。この手法は、検出用アルゴリズムを訓練して特定の人物の顔や頭の動きを認識するようにし、それを基に、その人物の顔が別の人物の頭と体に貼り付けられていないかを判断する。同手法は対象人物を認識するようにシステムを訓練しなければ使えないが、少なくとも大統領候補者をディープフェイクの脅威から守れるかもしれない。

実は、グーグルはこの新研究に資金を提供している。つまり実際のところ、3社はディープフェイクの検出技術については互いに手札を伏せあっているのだろう。捏造犯より一枚上手で居たいのなら、それは確かに賢い選択だろう。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ