前へ 1 2 次へ

第10回 “あのセキュリティ事故”はどうやったら防げた? 検証委員会

生成AIの業務活用による「効率化」と「情報保護」のバランス、FortiSASE+FortiAI-Protectのソリューション

広告制作で無許可の“シャドーAI”利用、発表前の商品情報が漏洩! どうやったら防げた?

文●大塚昭彦/TECH.ASCII.jp

提供: フォーティネット

  • この記事をはてなブックマークに追加
  • 本文印刷

■今回のセキュリティ事故:

 大手生活消費財メーカーのV社では、洗濯洗剤の新商品発売を数カ月後に控え、広告/販促キャンペーンの準備を急ピッチで進めていた。

 今回の新商品は、これまでの洗濯洗剤とは異なるコンセプトで開発された、新ブランドで展開される商品である。V社としてもかなり力が入っており、発売のタイミングでテレビCM、デジタル広告、店頭プロモーション、SNS施策など、かなり力を入れたキャンペーンを展開する計画だ。

 もちろんこの時点では、新商品の名前はもちろん、コンセプト、具体的な特徴、さらには会議やチャットなどで話し合われた内容なども含めて、多くの情報が“機密情報扱い”となっていた。社内でも、こうした情報に触れられるのは商品開発部やマーケティング部に所属する、一部の関係する社員に制限されていた。

 そんなときにセキュリティ事故が起こった。マーケティング部のSNS施策を担当するチームの社員が、SNS向け広告制作のアイデアを得ようと、業務利用が許可されていない生成AIサービスに「新商品の商品名」「商品特徴」「ターゲット像」などの情報を入力してしまったのだ。もちろんこれらの情報は、V社にとって重要な機密情報である。

 V社では過去1年ほど、あらゆる業務の生産性を高めるために、社内での生成AI活用を推奨してきた。もっとも、さまざまな業務秘密が取り扱われることも考えて、IT部門がV社専用環境で稼働する独自の生成AIサービスを構築し、業務ではこれを使うよう要請していた。これならば、機密情報が社外に流出する心配はない。

 ただし、この生成AIサービスに組み込まれているAIモデル(LLM)はバージョンが古く、一般的なビジネス文書の要約や下書き程度ならばともかく、広告クリエイティブの制作業務には適していなかった。そこで、当該社員は数カ月前から、より新しい生成AIサービスを無許可で業務利用していたのだ。さらに、IT部門が緊急で社内調査をしたところ、他部門でも同様に、無許可のAIサービス利用=“シャドーAI”が多発していることが発覚した。

 V社内の業務ではすでに生成AIサービスが欠かせない存在になっており、今さら一律に「利用禁止」に後戻りすることはできない。また、新しいサービスが次々に登場している現在、“シャドーAI”の社内利用状況を監視する方法も思いつかない。……このセキュリティ事故は、どうやったら防げたのだろうか?

※このストーリーはフィクションです。実在する組織や人物とは関係ありません。


「人の代わりにAIが考える時代」、情報漏洩は確実に増える

 日本国内でも、生成AIの業務利用が徐々に定着し始めている。今年実施されたされたいくつかの国内企業調査によると、生成AIを業務活用している企業の割合は、全体平均では25%程度のようだ。現時点では企業規模や業種/職種などによって差があるが、欧米やアジア他国の活用率がさらに高いことを考えると、浸透と定着はこれからも進むだろう。

 生成AIサービスは、一度使い始めると手放せなくなる。筆者自身も情報検索によく利用しているが、作業効率が格段にアップしたことを実感する。また、企画のアイデアを“壁打ち”するような場面でも、AIならば嫌な顔もせず、夜中でも相手をしてくれるのでとても助かる。

 今回の事例として取り上げた「広告クリエイティブ制作」の現場でも、キャッチコピーやテキスト、画像/イラストの制作業務を中心として、生成AIは多く利用され始めている。特にSNSや動画サイト向けの広告では、さまざまなパターンのクリエイティブが大量に求められるようになっており、それを際限なく制作してくれる生成AIとの親和性は高いようだ。

 このように、業務の中で「人の代わりにAIが考える」場面は、これからさらに増えるだろう。それに伴って、機密情報の漏洩リスクも確実に高まる。「AIに考えてもらう」ためには、詳しい情報をAIに渡す必要があるからだ。今回取り上げた新商品情報以外でも、例えば研究開発データ設計図面ソフトウェアの仕様書ソースコード、さらには重要な会議の録音/録画、メールやチャットのやり取りまで、“意図せず”機密情報を漏洩させてしまうケースも増えるだろう。

 情報漏洩のリスクを抑えるために、今回のV社のように、自社専用環境内で生成AIサービスを用意する企業もある。ただし、幅広い業務での生成AIニーズがそれだけでカバーできるとは限らず、用途特化したほかのサービスやLLMが使いたいという理由で、今回のような“シャドーAI”につながるケースも出てくるはずだ。

「効率性や利便性」と「情報保護」のバランスの難しさ

 効率性や利便性を考えると「生成AIの業務活用」は必須だが、「機密情報保護」をないがしろにするわけにはいかない――。この両者のバランス調整は難しい。

 現時点では、IT/セキュリティ管理者が、社内におけるさまざまな生成AIサービスの業務活用状況を把握し、それぞれのサービスのリスク度もふまえながら、ルール化や利用制限を進める必要がある。もっとも、ここにもいくつもの課題がある。

 1つめの課題は、生成AI技術の急速な進化に伴って、新たなサービスが次々に登場し続けていることだ。管理者がそれらを漏らさず把握したうえで、一つずつリスクを判断し、許可/禁止のルール化をしたり、ファイアウォールのポリシーを設定したりするというのは、とても現実的とは言えない。

 2つめは、生成AIの業務活用で得られるメリットを考えると、一律にすべてを禁止/ブロックすることも避けたいという点だ。各サービスに対する社内の利用ニーズも把握しながら、「特定のサービスの利用を、特定のユーザーや部署だけに許可する」といった、メリットも享受しながらリスクを避ける、柔軟な利用制御ができることが望ましい。

 最後の課題として、一定の利用を許可する場合でも、各ユーザーの細かな操作内容まで制御/記録できることが望ましいという点だ。生成AIに入力される情報が、機密情報に当たるのかどうか判断が難しいケースもある。そうした場合でも、ログに記録されていれば監査を通じてその判断ができるし、新たなルールづくりの参考になる。

前へ 1 2 次へ