このページの本文へ

AIはサイバー犯罪者にとっても“便利”なもの 進化するサイバー犯罪の新たな手口

2025年10月10日 09時00分更新

文● せきゅラボ編集部

  • この記事をはてなブックマークに追加
  • 本文印刷

AIが作成した偽情報を見分けられるか

 生成AIの急速な普及は、私たちの生活やビジネスに数多くの利便性をもたらしている。その一方で、サイバー犯罪者たちもまた、こうしたAIツールを巧みに悪用し始めている。従来の手口とは異なる、より精巧で、より人間的に見える攻撃が増加しているのだ。

 たとえば、メールやSNSを通じて個人情報を盗み取る「フィッシング詐欺」は、AIによって新たな段階に進化している。これまでは不自然な日本語や誤字が見分けるヒントになったが、AIが生成した文面は流暢で、正規企業の書式や語調を模倣することが容易になった。被害者が「怪しい」と感じにくい状況が作り出されている。

 さらに最近では、音声AIを使った「ビッシング(音声による詐欺)」も登場している。上司や取引先の声をAIが再現し、電話越しに金銭やデータを要求するというものだ。わずかな音声データから本人そっくりの声を生成できるため、従来の「声で確認する」という安全策が通用しなくなりつつある。

 マルウェアの作成にもAIは悪用されている。コード生成ツールを用いれば、専門知識がなくても高度なプログラムを作ることが可能だ。これにより、従来は一部のスキルを持つ犯罪者に限られていた攻撃が、より広い層に広がる危険がある。AIによって生成されたコードは多様で、従来のパターン検知では防ぎきれないケースも増えている。

 そして、人間の心理を突く「ソーシャルエンジニアリング」も、AIによって強化されている。SNS上の投稿を分析し、個人の関心や行動パターンに合わせた説得力のあるメッセージを生成することが可能になった。まるで自分をよく知る人物からの連絡のように感じられる巧妙な手口が、信頼を装って侵入してくる。

 AIはサイバー犯罪者にとっても“便利”なもの。こうした新たな脅威に対抗するには、技術だけでなく「人の警戒心」がますます重要になる。どれほど自然な文章や音声でも、即座に反応せず、一拍おいて確認する習慣を持つことが第一歩だ。

「怪しい日本語に注意」だけでは
AI生成攻撃には太刀打ちできない

 メールやメッセージの文章が自然であっても、リンクを開く前に必ず送信元を確認しよう。たとえば、銀行やECサイトを名乗るメールでも、ドメインが微妙に違っていることがある(例:〇〇.co.jp → 〇〇.com)。また、文面内のリンクを直接クリックせず、公式サイトを自分で開いてアクセスする習慣を持つことが有効だ。

 ビッシング(音声詐欺)対策として、電話での指示や依頼は必ず別ルートで確認することが重要だ。上司や家族を名乗る相手から金銭や情報を求められても、メールやチャットなどで本人に連絡を取り、真偽を確かめよう。AI音声は本人そっくりでも、会話の文脈までは完全に再現できない。

 AIが生成した新種マルウェアは日々登場している。セキュリティソフトを定期的に更新し、OSやアプリも常に最新版に保つことが基本だ。更新通知を後回しにしないだけで、未知の脅威から身を守れる確率が大きく上がる。

 ソーシャルエンジニアリングでは、SNSの投稿内容から人間関係や行動パターンを割り出して攻撃されることがある。勤務先や行動予定、家族構成などの詳細を公開しないように心がけたい。特に「旅行中」「出張中」などの投稿は留守情報として悪用されるリスクもある。

 従来の「怪しい日本語に注意」といった教育では、AI生成攻撃には太刀打ちできない。文面の自然さに惑わされず、不意の依頼や緊急連絡には慎重に対応するよう社員に周知することが必要だ。実際のAIフィッシング事例を教材にしたトレーニングも効果的である。

 ログイン認証には、パスワードだけでなくワンタイムコードや生体認証を組み合わせることが重要だ。AIによるパスワード推測や盗聴を受けても、被害を最小限に抑えられる。

 AIを悪用した詐欺は、一社だけで対応しきれない場合が多い。被害や疑わしい事例は、IPA(情報処理推進機構)や警察庁サイバー犯罪対策課などに速やかに報告し、業界内で情報を共有することが、社会全体の防御力向上につながる。

 今回は、McAfee Blogから「悪用も目立ち始めたメインストリームのAIツール」を紹介しよう。(せきゅラボ)

※以下はMcAfee Blogからの転載となります。

悪用も目立ち始めたメインストリームのAIツール:McAfee Blog

フィッシング詐欺

楽しい定型詩とか、変てこな肖像画、バズるくらい笑える動画。人工知能 (AI) がやってくれるのはそういったものだけではありません。ChatGPTやBard、DALL-E、Craiyon、Voice.aiなど、人気のあるいくつものAIツールは、暇つぶしだけでなく、学校の宿題や職場の仕事にも実に便利です。しかし、サイバー犯罪者もこうしたAIツールを悪用しており、フィッシング、ビッシング、マルウェア、ソーシャル エンジニアリングなどがまったく新しい広がりを見せています。

この記事では、詐欺にAIが使われた最近の事例と、万一にも遭遇したときに気づくための目安をいくつかまとめました。

1. AI音声詐欺

ビッシング、つまり電話を使うフィッシングは、目新しいものではありません。しかし、AIの音声で模倣できるようになったため、最近の詐欺電話はかつてないほど説得力が増しています。アリゾナ州では、誘拐を告げる偽電話のために、ある一家が数分間とはいえパニックに陥ったことがあります。その家の母親が、娘を誘拐したと告げ身代金を要求する電話を受けたのです。電話口からは、間違いなくわが子の声が聞こえてきましたが、最終的にはAIで生成された模倣であることが判明します。

娘は誘拐などされておらず、何事もなく無事でした。この家族が金銭被害を受けずに済んだのは、対処が適切だったからです。警察に電話し、詐欺師を電話口で待たせている間に娘の所在を確認しました*1

2022年に米国では、なりすまし詐欺の被害が26億ドルにも達しました。驚きの数字ですが、AI詐欺が広がればこれがさらに増える可能性もあります。マカフィーの「Beware the Artificial Imposter (AI のなりすましにご用心)」レポートによると、AI音声詐欺に遭ったことがある、あるいは遭った人を知っているという人の割合が、世界全体ではおよそ25%に達しているといいます。しかも、音声詐欺の被害者のうち77%が結果的に金銭を失っているという調査結果も出ています。

違いを聞き分けるには

大切な人が窮地にある——その声を聞いたら、驚きあわてるのは無理もありません。しかし、誰かが困っているという電話を受けたときには、まずなるべく落ち着きましょう。大切な人の「声」なのかどうか、よく聞き分けてください。AI音声の技術は驚異的ですが、まだ何らかのクセが残っているものです。音声が不自然にもたつくことはありませんか?単語の終わりが尻切れになっていませんか?特定の言葉が、自分の知っているアクセントとずれていたりしませんか?こうした微細な特徴に気づくには、冷静な判断が必要です。

AIによるビッシング詐欺を避けるために家族としてできるのは、家族の合い言葉を決めておくことです。自分たちにとって意味があれば、謎めいた言葉やフレーズでもかまいません。この合い言葉は自分たちだけが覚えておき、ソーシャル メディアなどには決して投稿しないようにします。そうすれば、詐欺師が電話をかけてきて家族の名前を名乗ったとしても、その緊急事態が偽物か本物か、合い言葉で判断できます。

2. ディープフェイクによる脅迫と偽広告

ディープフェイク、つまり元々の画像、動画、音声クリップをデジタルで不正に加工する手法は、多くの人を惑わせているAIの機能です。「百聞は一見にしかず」という古くからの格言を揺るがしています。目にするものがまったく信じられないとしたら、何を真実で何が真実でないといえるでしょうか?

FBIは、サイバー犯罪者が被害者の性的な映像をでっち上げる新たな手口について広く警告しています。その映像を投稿されたくなければ金銭またはギフト カードを送るようにと、無辜の市民を脅迫してくるのです*2

ディープフェイク技術は、偽広告を利用する事例でも中心的な役割を果たしています。ある詐欺師が作った偽広告では、金融の専門家として知られるマーティン・ルイス氏が登場して、ベンチャー投資を宣伝してきました。このFacebook広告は、ディープフェイクで作られたルイス氏を登場させることで、悪質な行為に正当性を加えたのです*3

身代金要求や疑わしいオンライン広告への対処

脅迫による金銭等の要求に対しては、いっさい何もしないのが最善の対応です。相手は犯罪者なのですから、言われるままに身代金を支払ったとしても、偽の映像を手放す保証はありません。詐欺師からコンタクトがあったら、できるだけ速やかに法執行機関に連絡してください。問題解決の糸口になるはずです。

評価の高いソーシャル メディア プラットフォームで表示される広告であっても、広告主がまっとうな企業とは限りません。広告で見かけた会社で買い物や投資に動く前に、その会社について独自の背景調査を実施しましょう。時間は5分もかかりません。Better Business Bureauなどのオンライン レビュー サイトで評価を調べれば、信用できる会社かどうかわかります。

ディープフェイクの動画や画像を見極めるには、不自然な陰影や照明、顔の歪み、人の手などを確かめます。違和感のある細かい点が特に見つかりやすい箇所です。AI音声と同じように、ディープフェイク技術はたいてい高精度ですが、完璧ではありません。あるいは、マカフィーのDeepfake Detectorをお使いいただければAIで生成された音声を、ものの数秒で判別できます。

3. AI 生成のマルウェアとフィッシング メール

コンテンツ生成ツールには、悪用されかねない文章の作成を防ぐ一定の安全機構が組み込まれています。しかし、一部の犯罪者はそうした規則をかいくぐり、ChatGPTやBardを使ってマルウェアやフィッシングの運用に役立てています。例えば、キーロガーの機能をもつソフトウェアを作るようChatGPTに指示しても、これは拒否されます。ところが、表現を変えてキーストロークを記録するコードを書くよう指示すれば、言うとおりに動くことがあります。ある研究者の報告によると、コーディングの知識がほとんどない人でもChatGPTは使えるため、マルウェアの開発はかつてなく簡単に、手軽になっているということです*4。同じように、AIの文章生成ツールは説得力のあるメールを、しかもあっという間に作り上げます。理屈からいえば、これでフィッシング詐欺師の作業がスピードアップし、攻撃の範囲も広がる可能性もあります。

AI が作成するマルウェアやフィッシングの試みを回避するには

AIで生成されるマルウェアやフィッシングのメールを回避するときも、人間が書いた詐欺メールの場合と方法は変わりません。疑わしそうな文面にはとにかく気をつけ、疑ってかかりましょう。マルウェアは遠ざけ、信頼できるとわかっているWebサイトだけ利用してください。McAfee+に含まれるマカフィーのWeb保護などのセーフ ブラウジング ツールを使えば、不審なWebサイトに近づかないようダブルチェックできます。

フィッシングに関しては、緊急の対応を迫る、あるいは尋常でないと思われるメールやメッセージを見かけたら、ただちに警戒してください。従来のフィッシング メールには、誤字や脱字、文法上の誤りが付きものでした。AIで書かれたメールは、きちんと書かれていてミスもほとんどありません。つまり、届いたメールを1通1通、念入りに調べなければならないということです。

ひと呼吸して、落ち着いて、確かめる

AIに関する規制の議論は盛んに進んでいますが、最善なのは責任をもってAIを利用することです。自分が使うときには透明性を意識しましょう。そして、AIの悪質な使い方であると疑われる場合は、いったん立ち止まり、頭をクリアにしてから目前の状況をしっかり確認しましょう。AIはかなり説得力のあるコンテンツを作れるようになりました。だからこそ、自分の直観を信じ、ここで説明したベストプラクティスに従って、お金と個人情報をサイバー犯罪者の手から守ってください。

*1 CNN, “‘Mom, these bad men have me’: She believes scammers cloned her daughter’s voice in a fake kidnapping”

*2 NBC News, “FBI warns about deepfake porn scams”

*3 BBC, Martin Lewis felt ‘sick’ seeing deepfake scam ad on Facebook”

*4 Dark Reading, “Researcher Tricks ChatGPT Into Building Undetectable Steganoraphy Malware”

※本記事はアスキーとマカフィーのコラボレーションサイト「せきゅラボ」への掲載用に過去のMcAfee Blogの人気エントリーを編集して紹介する記事です。

■関連サイト

カテゴリートップへ