このページの本文へ

ESET/マルウェア情報局

本物そっくりの映像を作り出す「ディープフェイク」に注意

  • この記事をはてなブックマークに追加
  • 本文印刷

 本記事はキヤノンマーケティングジャパンが提供する「マルウェア情報局」に掲載された「フェイク動画って?広がる『うそ』に注意しよう」を再編集したものです。

人工知能を使って画像・映像を合成するディープフェイク

 ディープフェイクとは、既存の画像・映像を別の画像・映像に合成する人工知能を用いた技術。ディープラーニングの「ディープ」と、フェイクニュースの「フェイク」を組み合わせた造語とされる。ディープフェイクを使うと、実際には行なっていない行動を、まるで実際に行動したかのような映像を作成できてしまう。例えば、オンライン学習でリアルな体験が得られるよう、絵画や写真でしか見られない歴史上の人物が、あたかも現代に蘇って話をしているような動画を生成する方法も発案されている。

 このディープフェイクを使って作成された、偽りの映像が「フェイク動画」だ。一時期、トランプ大統領やFacebook創業者のマーク・ザッカーバーク氏を模倣したフェイク動画が話題となった。こうした行為は悪意あるフェイク動画制作者によって、実際には発言していない政治的あるいは経営上のメッセージを世間に広めてしまうリスクがある。フェイクニュースとしてソーシャルメディアで拡散されると、ユーザーは偽物と判別することが難しいためだ。

 現状、フェイク動画は悪用されることが多い。DeepTrace社による2019年の調査結果では、96%のディープフェイクがポルノ目的であり、主に著名な女性たちが被害を受けている。投稿された動画は複数のサイトに拡散され、全て削除するのが極めて困難であり、深刻な事態に陥る。

 ソーシャルメディアでのフェイク動画拡散を防ぐため、Facebookがディープフェイクで作成された動画を削除する方針を掲げるなど、対抗措置も進められている。具体的には、「動画内の人物が実際に発言していない言葉を発したかのように見せかけ、一般的なユーザーには見分けが付かないほどに洗練して編集された動画」、「機械学習などのAI(人工知能)のテクノロジーを使ってコンテンツを置き換えたり重ねたりして、本物のように見せかけている動画」がその対象となる。明らかに合成とわかるような品質の低い動画や、パロディ、風刺的なコンテンツは削除の対象外とされている。

 これまでにも映画制作の現場ではCG(コンピューターグラフィックス)と呼ばれる人物画像合成技術が使われていたが、専門の機材やスキルが必要とされた。近年、ディープフェイクが広まっているのは、画像合成を容易にするツールが増えた点が背景にある。例えば、映像制作プログラム「FakeApp」は、高性能なパソコンさえあれば、個人でも動画素材を合成し、有名映画に自分の顔を当てはめた映像を作るといった使い方が可能だ。

 同様に、映画のワンシーンに自分の顔を重ねる機能は、中国の顔交換アプリ「ZAO」で実現された。顔写真をアップロードするという手軽さで中国では爆発的な人気を集め、2019年9月には、最も多くダウンロードされた無料アプリとなった。また、「Deepfakes web(β版)」というウェブサービスは、計算上で1時間あたり2ドルほどのクラウド利用料と5ドルの月額料金(2020年7月時点、プレミアムプランの場合)でディープフェイクの動画あるいは画像合成を可能にしている。任意の動画で顔画像を差し替えるのに要するのは4時間程度のため、利用するハードルを下げている。その他にもオープンソースのツールやSNSアプリに組み込まれるようなツールも提供され始めている。

フェイク動画による金銭被害や風評被害に繋がるリスク

 フェイク動画は個人の嫌がらせや、リベンジポルノ、ネットいじめに悪用される可能性が懸念されている。愉快犯による犯行、広告収入を目当てとした、話題にされやすい偽のニュースの拡散を狙うケースもあった。アプリや簡易的なツールでフェイク動画が作成できるようになった今、気軽に投稿されたものが大きな影響を生む場合がある。

 フェイク動画はサイバー攻撃にも悪用されるリスクがある。フォレスターリサーチ社によると、2020年にディープフェイクによる詐欺被害が2億5000万ドルに達すると予測されている。例えば、企業の経営者が自社製品の問題や不具合を発表するフェイク動画が作成されたとする。そのような場合、その企業が動画の内容を否定したとしても、風評被害の拡散は避けられないものとなる。また、ソーシャルメディアで影響力を持つインフルエンサーがある製品を批判するフェイク動画が作成されてしまえば、被害に遭遇した企業もインフルエンサーも疑いの目を向けられるかもしれない。

 他にも、話声を似せた「ディープフェイクボイス」による金銭被害も実際に発生している。親会社のCEOから電話で送金指示を受けたが、実際には悪意のある攻撃者がAI(人工知能)を使って音声を模倣したものだったというインシデントも発生した。株主向けの報告やカンファレンスでのPRなど、メディアやYouTubeに音声や画像が残っている経営者は、ディープフェイクの素材となるデータが多いため、フェイク動画・フェイク音声が作成されるリスクが高い。

 これまでメール文面主体で行なわれてきたフィッシング詐欺やビジネスメール詐欺(BEC)などの犯罪行為が、ディープフェイクの普及で音声や動画もツールとして使用され始めている。人の感情を煽るような文言を用い、不安な心理状態を逆手に取るような手口によって、フェイク動画から情報漏えいや金銭被害が生まれてしまう。さらに、今後のディープフェイク技術の発展を考慮すると、経営陣のプレゼンテーションを聞く、あるいは上司とオンライン通話をしているつもりでも、実際は偽のライブ動画であり、詐欺が仕掛けられてしまうという危険性も懸念されている。

セキュリティ対策もフェイクニュースの可能性を意識すべき時代へ

 ディープフェイクを作成するAIに対抗し、ディープフェイクを見破るAIも開発が進んでいる。人間には違いを見極めることが難しい場合でも、まばたきや頭の動きの不自然さなどを手掛かりに、フェイク動画を特定する方法が提案されている。しかし、多くのセキュリティ問題と同様に、悪意のある攻撃者とセキュリティ研究者の間で熾烈な開発競争は継続していくことになるだろう。

 そしてサービス事業者などに任せっきりにするのではなく、ディープフェイクに対する意識を高め、適切なセキュリティ対策を講じねばならない。例えば、ソーシャルメディアを運用している企業では、他のユーザーが投稿した動画をシェアしたことをきっかけに、フェイク動画の拡散を結果的にあと押ししてしまうリスクがある。先述の通り、Facebookが講じているような、フェイク動画を見破る技術の開発や拡散を防止する対策が求められる。

 また、どの部門に属する従業員であっても、複数のチャネルからの情報収集を徹底するよう努めたい。フェイクニュースでは、飛びつきやすい話題が採用される場合が少なくないため、情報を目にした後に一度冷静になって考える習慣が必要だ。情報のソースを確認し、信頼できるものであるか、いつ発信された情報であるかを調べると良いだろう。

 上司や取引先からのメールや電話を受け取る場合にも、ディープフェイクを用いた詐欺の可能性を考慮したい。特に、重要な情報や金銭に関与する連絡については、メールや電話、面談など、異なる複数のコミュニケーションのステップを踏むといったように、丁寧な確認作業が推奨される。悪意のある攻撃者から狙われた企業・組織は、さまざまな手口で攻撃を仕掛けられ続けることになる。企業・組織の大小を問わず、フェイク動画のリスクを認識し、被害を未然に防ぐ取り組みを進めていくようにしたい。

カテゴリートップへ