このページの本文へ

X上で注意喚起の投稿が広がっている

無言電話に「もしもし?」と答えるだけで危険な理由 “AI音声クローン詐欺”の可能性

2026年01月20日 17時00分更新

文● モーダル小嶋/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

応答そのものが「素材」になる可能性

 AI音声合成技術を悪用した詐欺の新たな手口として、「無言電話」を起点とする攻撃が流行するかもしれない――。そんな注意喚起の投稿がX上で広がりを見せている。

 電話口で相手が何も話さない、あるいは短時間の沈黙だけが続くというもので、不可解な挙動に思えるが、背後では音声データの収集や行動誘導を狙うケースがあると指摘されている。

 X上で話題になっているのは、アメリカのFTC(Federal Trade Commission、連邦取引委員会)の投稿だ(https://consumer.ftc.gov/consumer-alerts/2023/03/scammers-use-ai-enhance-their-family-emergency-schemes)。

FTCの投稿「Scammers use AI to enhance their family emergency schemes | Consumer Advice」より

 同記事は、短い声(無言電話に対する呼びかけなど)を収集し、AIを使うことで“クローン音声”が生成され、それが詐欺に使われる可能性について警鐘を鳴らす内容となっている。

 該当記事が2023年のものである点には注意が必要だが、ターゲットの家族や身近な人物の音声を何らかの手段で入手し、その声色をAIに学習させて悪用する「AI音声詐欺」「音声クローン詐欺」の手口は広まりつつある。

 近年では、SNS上の広告でも、有名人の動画や画像を無許可で引用し、AIで生成した音声で投資を薦めているように見せかける悪質なものが存在している。

“本人の声”が使われる恐れ

 AI音声詐欺の場合、無言電話が単なるいたずらではなく、通話が成立した事実や相手の反応音(息づかい、相づち、短い返答)を収集する目的で使われる場合がある。これらの断片的な音声でも、AI音声合成の学習素材として一定の価値を持つとされる。

 特に、相手が「はい」「もしもし」と発声した瞬間を狙うケースでは、数秒の音声が後続のなりすましに悪用されるリスクがある。

 この無言電話で得た音声や行動情報は、別の詐欺フェーズで活用される可能性がある。例えば、後日「家族」「取引先」「上司」を名乗るAI音声による電話がかかり、緊急性を装って金銭や個人情報の提供を迫るといった流れだ。声の一致度が高いほど被害者の警戒心は下がりやすく、従来型のオレオレ詐欺よりも見破りにくい点が問題視されている。

 こうした事例を踏まえ、個人・企業の双方で以下の対策が求められる。

・不明番号からの着信には応答しない。留守番電話に切り替え、必要性を確認する。
・応答した場合でも発声を控える。沈黙が続く場合は速やかに通話を終了する。
・本人確認の多要素化。電話のみでの指示や金銭依頼は、別経路で必ず再確認する。
・社内周知の徹底。AI音声詐欺の具体例を共有し、判断基準を明文化する。

 AI音声合成の高度化により、「声」はもはや確実な本人証明ではなくなりつつある。無言電話という地味な入口から始まる詐欺は、利用者の油断を突く点で厄介だ。

 今後は技術的な防御に加え、運用ルールとリテラシーの更新が不可欠となる。沈黙に違和感を覚えた時点で行動を止める判断こそが、被害を防ぐ最初の防波堤となるだろう。

カテゴリートップへ

  • 角川アスキー総合研究所