第10回 “あのセキュリティ事故”はどうやったら防げた? 検証委員会
生成AIの業務活用による「効率化」と「情報保護」のバランス、FortiSASE+FortiAI-Protectのソリューション
広告制作で無許可の“シャドーAI”利用、発表前の商品情報が漏洩! どうやったら防げた?
提供: フォーティネット
■今回のセキュリティ事故:
大手生活消費財メーカーのV社では、洗濯洗剤の新商品発売を数カ月後に控え、広告/販促キャンペーンの準備を急ピッチで進めていた。
今回の新商品は、これまでの洗濯洗剤とは異なるコンセプトで開発された、新ブランドで展開される商品である。V社としてもかなり力が入っており、発売のタイミングでテレビCM、デジタル広告、店頭プロモーション、SNS施策など、かなり力を入れたキャンペーンを展開する計画だ。
もちろんこの時点では、新商品の名前はもちろん、コンセプト、具体的な特徴、さらには会議やチャットなどで話し合われた内容なども含めて、多くの情報が“機密情報扱い”となっていた。社内でも、こうした情報に触れられるのは商品開発部やマーケティング部に所属する、一部の関係する社員に制限されていた。

そんなときにセキュリティ事故が起こった。マーケティング部のSNS施策を担当するチームの社員が、SNS向け広告制作のアイデアを得ようと、業務利用が許可されていない生成AIサービスに「新商品の商品名」「商品特徴」「ターゲット像」などの情報を入力してしまったのだ。もちろんこれらの情報は、V社にとって重要な機密情報である。
V社では過去1年ほど、あらゆる業務の生産性を高めるために、社内での生成AI活用を推奨してきた。もっとも、さまざまな業務秘密が取り扱われることも考えて、IT部門がV社専用環境で稼働する独自の生成AIサービスを構築し、業務ではこれを使うよう要請していた。これならば、機密情報が社外に流出する心配はない。
ただし、この生成AIサービスに組み込まれているAIモデル(LLM)はバージョンが古く、一般的なビジネス文書の要約や下書き程度ならばともかく、広告クリエイティブの制作業務には適していなかった。そこで、当該社員は数カ月前から、より新しい生成AIサービスを無許可で業務利用していたのだ。さらに、IT部門が緊急で社内調査をしたところ、他部門でも同様に、無許可のAIサービス利用=“シャドーAI”が多発していることが発覚した。
V社内の業務ではすでに生成AIサービスが欠かせない存在になっており、今さら一律に「利用禁止」に後戻りすることはできない。また、新しいサービスが次々に登場している現在、“シャドーAI”の社内利用状況を監視する方法も思いつかない。……このセキュリティ事故は、どうやったら防げたのだろうか?
※このストーリーはフィクションです。実在する組織や人物とは関係ありません。
「人の代わりにAIが考える時代」、情報漏洩は確実に増える
日本国内でも、生成AIの業務利用が徐々に定着し始めている。今年実施されたされたいくつかの国内企業調査によると、生成AIを業務活用している企業の割合は、全体平均では25%程度のようだ。現時点では企業規模や業種/職種などによって差があるが、欧米やアジア他国の活用率がさらに高いことを考えると、浸透と定着はこれからも進むだろう。
生成AIサービスは、一度使い始めると手放せなくなる。筆者自身も情報検索によく利用しているが、作業効率が格段にアップしたことを実感する。また、企画のアイデアを“壁打ち”するような場面でも、AIならば嫌な顔もせず、夜中でも相手をしてくれるのでとても助かる。
今回の事例として取り上げた「広告クリエイティブ制作」の現場でも、キャッチコピーやテキスト、画像/イラストの制作業務を中心として、生成AIは多く利用され始めている。特にSNSや動画サイト向けの広告では、さまざまなパターンのクリエイティブが大量に求められるようになっており、それを際限なく制作してくれる生成AIとの親和性は高いようだ。

このように、業務の中で「人の代わりにAIが考える」場面は、これからさらに増えるだろう。それに伴って、機密情報の漏洩リスクも確実に高まる。「AIに考えてもらう」ためには、詳しい情報をAIに渡す必要があるからだ。今回取り上げた新商品情報以外でも、例えば研究開発データや設計図面、ソフトウェアの仕様書やソースコード、さらには重要な会議の録音/録画、メールやチャットのやり取りまで、“意図せず”機密情報を漏洩させてしまうケースも増えるだろう。
情報漏洩のリスクを抑えるために、今回のV社のように、自社専用環境内で生成AIサービスを用意する企業もある。ただし、幅広い業務での生成AIニーズがそれだけでカバーできるとは限らず、用途特化したほかのサービスやLLMが使いたいという理由で、今回のような“シャドーAI”につながるケースも出てくるはずだ。
「効率性や利便性」と「情報保護」のバランスの難しさ
効率性や利便性を考えると「生成AIの業務活用」は必須だが、「機密情報保護」をないがしろにするわけにはいかない――。この両者のバランス調整は難しい。
現時点では、IT/セキュリティ管理者が、社内におけるさまざまな生成AIサービスの業務活用状況を把握し、それぞれのサービスのリスク度もふまえながら、ルール化や利用制限を進める必要がある。もっとも、ここにもいくつもの課題がある。
1つめの課題は、生成AI技術の急速な進化に伴って、新たなサービスが次々に登場し続けていることだ。管理者がそれらを漏らさず把握したうえで、一つずつリスクを判断し、許可/禁止のルール化をしたり、ファイアウォールのポリシーを設定したりするというのは、とても現実的とは言えない。
2つめは、生成AIの業務活用で得られるメリットを考えると、一律にすべてを禁止/ブロックすることも避けたいという点だ。各サービスに対する社内の利用ニーズも把握しながら、「特定のサービスの利用を、特定のユーザーや部署だけに許可する」といった、メリットも享受しながらリスクを避ける、柔軟な利用制御ができることが望ましい。
最後の課題として、一定の利用を許可する場合でも、各ユーザーの細かな操作内容まで制御/記録できることが望ましいという点だ。生成AIに入力される情報が、機密情報に当たるのかどうか判断が難しいケースもある。そうした場合でも、ログに記録されていれば監査を通じてその判断ができるし、新たなルールづくりの参考になる。
この連載の記事
- 第13回
sponsored
病院から患者の個人情報漏洩! “AI世代”研修医が引き起こしたシャドーAI事故……どうやったら防げた? - 第12回
sponsored
工場内からサイバー攻撃発生、しかし攻撃元が見つからない! ……どうやったら防げた? - 第11回
sponsored
工場の“サポート切れOSパソコン”がランサムウェアの感染源に! ……どうやったら防げた? - 第9回
sponsored
建設現場で協力会社のPCがランサムウェア感染、工事がストップ! どうやったら防げた? - 第8回
sponsored
ニセ広告にだまされ社員のPCがランサムウェア感染! どうやったら防げた? - 第7回
sponsored
社員の“シャドーAI”利用で、取引先の情報が漏洩! どうやったら防げた? - 第6回
sponsored
95Gbpsの大規模DDoS攻撃で、予約サイトがサービス停止に! どうやったら防げた? - 第5回
sponsored
クラウドのサービス開発で健康データ4万件が漏洩の危機! どうやったら防げた? - 第4回
sponsored
EDRが発したアラートへの対応が遅れ、100GB超の情報漏洩! どうやったら防げた? - 第3回
sponsored
あなたの会社でも起こりうる“SD-WANのセキュリティ設定漏れ”、どうやったら防げた?
