このページの本文へ

マカフィー・セキュリティ情報局 月例アンケート2024年1月

AI技術を悪用したSNS上の偽情報。判別不能になる日も近い?

2024年01月30日 18時00分更新

文● せきゅラボ

  • この記事をはてなブックマークに追加
  • 本文印刷

今年は、AI技術で質量ともにブーストされたフェイク情報がSNSを埋め尽くす!?

フェイクをあなたは「本当に」判別できますか?

 X(Twitter)アカウント「マカフィー・セキュリティ情報局」の2024年1月分アンケートから「SNSとフェイク情報」についてピックアップしました。

【今月のアンケート】
SNS上にあふれる「正しいか判断が難しい」投稿。
あなたは正しいか、フェイクか見抜けると思いますか?
ぜひ選んだ理由をリプしてください!

1. 思う →7.1%
2. やや思う →28.6%
3. あまり思わない →25%
4. 自信がない →39.3%

 たくさんのご回答、ありがとうございます。

 “SNSの投稿内容が正しいか、フェイクか見抜けると思いますか?”という質問に対して、見抜けそうと「思う」「やや思う」人が計35.7%。対して「あまり思わない」「自信がない」人は計64.3%でした。

 正直、慎重な人が多いようで安心しました!

 広告収益分配の開始以降、X(Twitter)にあふれる投稿は信頼性が落ちています。実際、能登半島地震にまつわるポストは収益目当てのデマであふれました。また、災害地からの投稿に対する無意味なリポストは、被災者からの切実な声が埋もれてしまう恐れを発生させています。

 そして次は、震災募金を装って金銭を窃取するフィッシング詐欺などにも注意が必要です。SNSのほか、見知らぬメールやSMS、動画の情報欄・コメントに貼られたURLをタップすることは避けましょう。

AIを悪用した詐欺はAIで判別する時代に

 昨年は生成AI技術の急速な進展ぶりに驚く一年でしたが、2024年はその技術を悪用して飛躍的に完成度が高まったフェイク文章・画像・動画が世間にバラまかれるでしょう。

 特に今年は世界情勢を左右する重要な選挙が控えています。国家のバックアップを受けた組織によるディープフェイクがSNSなどに大量投入されることを覚悟しなければなりません。こうなると、我々が真偽や安全性を判断するには限界があります。

 すでに比較的短い音声データさえ手に入れば、その声色である程度自由に喋らせる技術が存在します。影響力の高い有名人が喋っていると誤認させて世論を動かそうとするディープフェイク動画は、近いうちに社会問題として浮上するでしょう。また、家族に成りすますオレオレ詐欺などに悪用されることも考えられます。

 そんななか、対抗策として注目されているのが、AI生成物を自動で判断するAI技術です。たとえばマカフィーが今月発表した「プロジェクト・モッキングバード」は、ディープフェイク動画内で使用される偽音声に焦点を当てたもの。AIで作成した音声をなんと90%の精度で判別できる新技術です。

 我々は、「AIで作られる詐欺をAIに判別させながら日々の生活を送る」という新時代を生きることになるのかもしれませんね。

 今後もマカフィー・セキュリティ情報局発のアンケートを見かけましたら、ぜひともご回答くださいませ!

お気軽にご回答くださいませ!(画像をタップすると外部サイトに飛びます)

カテゴリートップへ