巧みに指示を出して規制を突破する手法
Q:「プロンプトインジェクション」ってなに?
A:対話型AIに対して、特定の指示(プロンプト)を出すことで実行する攻撃手法。
おすすめの関連記事
実はフィッシング詐欺だけで1年間に約120万件も報告されている
ある種の脆弱性を突いた攻撃と言える。特定の指示を受けたAIシステムは開発者が想定していない動作をしてしまい、誤動作してしまう。
その結果、攻撃者はAIから本来公開するべきでない情報を引き出すことが可能になり、対話型AIを運用している企業の機密情報や従業員のパスワードなどが漏洩する危険性もある。
実際、2022年9月にはGPT-3エンジンを採用した対話型AIに対して「前の指示を無視せよ」と指示を出したことでAIから非公開のドキュメントを引き出したり、SQLインジェクションを実行したりした事例が報告されており、対話型AIの普及に伴ってプロンプトインジェクションは必ず対策すべき課題となっている。
具体的な対策としては、ユーザーからの入力をチェック、フィルタリングすることで、悪意あるプロンプトを防ぐこと、またAIモデルの開発においてプロンプトインジェクションに対する耐性を与える設計をすることが挙げられる。
この連載の記事
-
第45回
デジタル
ペネトレーションテストはサイバー攻撃の「模擬戦」です -
第44回
デジタル
企業・団体は取得したが最後、厳重保護せねばならぬ「PII」とは? -
第43回
デジタル
「3Dセキュア2.0」は怪しいときだけ認証求める新システム -
第42回
デジタル
あなたの会社は対応済? 成りすまし迷惑メールを削減する「DMARCポリシー」 -
第41回
デジタル
あなたのスマホデータも裁判の証拠に!? 「デジタルフォレンジックス」ってなに? -
第40回
デジタル
個人情報を扱う企業が続々契約する「サイバー保険」ってなに? -
第39回
デジタル
「サンドボックス」が実験場ってどういうこと? -
第38回
デジタル
サイバー攻撃を引き寄せる「ハニーポット」は何のためにある? -
第37回
デジタル
「連絡先が消えた」と友だちからメッセージ。それは「LINEの乗っ取り」のサインだ! -
第36回
デジタル
AIに有名人の声を模倣させて金銭を騙し取る「AI音声詐欺」が怖い -
第35回
デジタル
「Google ダークウェブレポート」であなたの個人情報漏えいを確認 - この連載の一覧へ