AI対応のなりすまし、サードパーティの侵害、ランサムウェア主導の恐喝が単一のインシデントで収束したときに何が起こるか

文●フォーティネットジャパン 編集●ASCII

提供: フォーティネットジャパン

  • この記事をはてなブックマークに追加
  • 本文印刷

本記事はフォーティネットジャパンが提供する「FORTINETブログ」に掲載された「理論から圧力へ: 3回目のAI対応サイバー犯罪机上演習で明らかになったこと」を再編集したものです。

人工知能は、もはやサイバー犯罪における新興要因ではありません。すでに、攻撃がどのように展開されるか、信頼がどのように悪用されるか、そして限られた可視性と圧縮されたタイムラインの中でリーダーがどのように意思決定を迫られるかを形作っています。

過去1年間、フォーティネットはカリフォルニア大学バークレー校のCenter for Long-Term Cybersecurity(CLTC)およびグローバルパートナーと協力して、AI対応サイバー犯罪机上演習(TTX)の シリーズを通じてこれらの動態を検証してきました。これらの演習は、理論的な攻撃メカニズムではなく、実際のガバナンス、調整、経営幹部の判断をテストするように設計されています。

このシリーズの3回目の演習であるOperation Black Iceは、探求から圧力への転換を示しました。AI対応のなりすまし、サードパーティの侵害、ランサムウェア主導の恐喝が単一のインシデントで収束したときに何が起こるかを検証しました。

その結果は、新しい攻撃手法ではありませんでした。信頼が依存関係となり、不確実性が意思決定を支配する場合に、組織が最初にどこで苦戦するかについて、より明確な理解が得られました。

最初の2つの演習を基盤として

最初の2つのAI対応サイバー犯罪TTXは、共通のベースラインを確立しました。最初の演習では、生成AIがサイバー犯罪活動のコストとスキルの障壁をどのように低下させるかを検証し、より拡張性の高いフィッシング、詐欺、ソーシャルエンジニアリングを可能にすることを明らかにしました。2回目では、AIが帰属を複雑化し、初期シグナルの品質を低下させ、インシデントレスポンス中の曖昧性を増大させる方法を探求しました。

両セッションを通じて、一貫した知見が浮かび上がりました: AIは既存のサイバー犯罪戦術を置き換えるものではありませんが、それらを加速させ、人間の意思決定に利用可能な時間を圧縮します。Operation Black Iceは、これらのプレッシャーを直接テストするように設計されました。

なりすましが攻撃対象領域になるとき

Operation Black Iceは、信頼できる第三者を侵害してコアビジネスシステムへのアクセスを獲得するAI対応のなりすましシナリオを中心に展開されました。その最初の足がかりから、参加者は連鎖的な結果に直面しました:ランサムウェアによる暗号化、検証されたデータ流出、業務の中断、パートナーとの接続切断、規制当局による精査です。

この演習から得られた最も明確な洞察の1つは、deepfakeは主に検出の問題ではないということでした。これはガバナンスの問題です。このシナリオでは、なりすましが成功したのは、それが権限構造、緊急性の合図、既存のワークフローと一致していたためです。完璧なリアリズムは必要ありませんでした。プレッシャーの下での妥当性が必要だっただけです。

リーダーにとって重要な意味は、リクエストに重大なリスクが伴う場合、本人確認を単一のチャネルに依存することはできないということです。管理策は手続き的かつ技術的なものでなければならず、マルチチャネル検証、定義されたエスカレーションしきい値、影響の大きい意思決定に対する意図的な摩擦が含まれます。

2つの時計、1つの危機

このシナリオは、意図的にタイムラインを圧縮しました。攻撃者は72時間の身代金支払い期限を課しました。同時に、参加者は同様の時間枠で運用される規制上の通知要件に直面しました。

これにより、リーダーは、範囲、封じ込め、データ整合性の内部評価がまだ不完全な状態で、外部から見える意思決定を行うことを余儀なくされました。法務、技術、コミュニケーション、エグゼクティブチームは、多くの場合、共有された確実性なしに、並行して行動することを求められました。

この演習は、事前定義された調整モデルと規律ある意思決定のリズムの必要性を強化しました。これらがなければ、組織はインシデントの最中にガバナンス構造を即興で作ることになります。

身代金の決定は決して二者択一ではない

取締役会レベルの議論では、身代金への対応を単純な選択として組み立てることがよくあります。この演習は、実際の条件下でそのような組み立て方が失敗する理由を示しました。

参加者は、封じ込めオプション、攻撃者の信頼性、開示ポスチャ、法的エクスポージャー、保険の調整、運用復旧を同時に評価することを求められました。さらに事態を複雑にしたのは、各決定が他の決定を制約したことです。

AIは、恐喝のタイムラインを加速し、フォレンジックの可視性が限られている場合でも攻撃者の主張の信憑性を高めることで、この複雑さを増大させました。結果は明白でした。効果的な対応は、即興ではなく準備に依存します。

サードパーティが曖昧さを増大させる

サードパーティの関与は、シナリオの中で最も不安定な要素の1つであることが証明されました。参加者は、侵害されたサプライヤーからの不完全で進化する情報に依存しながら、重大な決定を下すことを求められました。この演習は、繰り返し発生する非対称性を明らかにしました。組織は、そのような確実性が最も得られない時に、ベンダーに確実性を求めます。

これは、パートナーエコシステム全体でのインシデント開示、エスカレーション、および対応調整に関する共通の期待の重要性を強化します。

これらの演習が重要な理由

Operation Black Iceは、AI対応サイバー犯罪を扱った3つのTTXすべてで浮上した結論を強化しました。現代のインシデントにおける最も損害の大きい失敗は、技術的なものであることはほとんどありません。それらは、不確実性に直面した際のガバナンス、信頼、および意思決定の失敗です。

AI対応サイバー犯罪は、新しいテクノロジーだけに依存するのではなく、既存の組織行動を悪用することで成功します。この課題に対処するには、リーダーシップの連携、リハーサルされた対応体制、および官民セクター間の協力が必要です。

フォーティネットがこれらの演習に継続的に参加していることは、AIがサイバーリスクをどのように再構築しているかについての応用的理解を進めるという、より広範なコミットメントを反映しています。目的は予測ではありません。それは準備態勢です。

フォーティネットは、AIがサイバー犯罪をどのように変化させているかを研究し、これらの洞察をセキュリティリーダー向けの実用的なガイダンスに変換するために、業界、学術界、および政府のパートナーとの協力を継続しています。このイニシアチブからのさらなる調査結果を探るには、フォーティネットのブログサイトで過去の投稿をお読みください。

■関連サイト