このページの本文へ

買収したRobust Intelligenceの技術も取り入れ、AIを「使う」「開発する」企業に保護手段を提供

なぜAIにセキュリティが必要か 「Cisco AI Defense」担当幹部に聞く

2025年07月03日 14時30分更新

文● 末岡洋子 編集● 大塚/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

AIシステムに対する保護体制ができている企業は「3割に満たない」

――AI Defenseは一部顧客に提供が開始されていますが、どのような企業が導入しているのでしょうか。

サンパス氏:AI Defenseを発表した1月の米国「Cisco AI Summit」には、Fortune 500企業のおよそ40%が参加しており、ほぼすべての企業がAI DefenseのPOCに関心があると回答した。

 いまのところ提供する顧客企業を限定しているが、その理由は、AI成熟度の高い企業にAI Defenseを使ってもらうためだ。規制業界である金融企業のほか、多国籍企業やコングロマリット、テック企業、小売企業などが最初の顧客となっている。

 AI Defenseに対する関心の高さから、どの企業もAIアプリケーションの構築を進めていることがうかがえる。特に、ソフトウェア企業においては今後「AIを使わないという選択肢はない」と言ってよいだろう。一般企業でも、ほとんどの企業が独自にソフトウェアを開発しているが、これから開発するソフトウェアについては何らかの形でAIを使うことになるはずだ。

 ここ(AIアプリケーション開発)が、AI Defenseの重要なユースケースになると見ている。可視化や検証、保護など、入り口はそれぞれの企業で異なるかもしれませんが、AI時代のセキュリティ対策として活用されていくと考える。

――AI Defenseの最初の提供国は「米国と日本」です。日本で早期に提供開始する理由は?

サンパス氏:日本のAIコミュニティ、技術コミュニティにおいて、Robust Intelligenceは大きなマインドシェアを持っている。Robust Intelligenceの技術が採用されているAI Defenseへの関心が高い、という先行指標があった。

 また、日本はテクノロジーの採用という点で世界で先駆けている国の1つだ。

 この2つの理由から、日本でも早期に提供することにした。

――調査によると、「AIシステムの保護体制が取れている企業・組織はわずか29%」とのことですが、AIセキュリティについてアドバイスがあれば教えてください。

サンパス氏:AI時代のセキュリティのためには、自社内で「責任あるAI」をどう実践するのかを考える、AIガバナンスプログラムの導入が必要だ。AIをどこで使用しているのかを明確にし、それに対する監査を実施すれば、その監査リストからリスク状態を理解できる。リスク状態が理解できれば、改善策へと進められる。

 AI Defenseでも、最初に行うことの一つは「可視化」だ。AIがどこで使われているのかを把握したら、モデルやアプリケーションを検証する。こうすることで、リスク状況が見えてくる。リスク状況が理解できたら、ガードレールを構築し、実装することでリスクを軽減できるわけだ。

――AIセキュリティという新しい取り組みは、どの部署が担当するのがふさわしいと考えますか。

サンパス氏:これについては、われわれも常に「AI Defenseユーザーのペルソナは誰か」と考えている。現実には企業の規模や組織体系、ユースケースにより変わってくるだろう。

 現在、セキュリティの観点で意思決定を行うのはCISOだ。企業規模が小さく、CISO、CDO(最高データ責任者)などの役職を設けていない場合は、CTOが適任だろう。あるいは、エンジニアリングや技術の責任者になるかもしれない。

 大企業であれば、CISO、最高リスク責任者、最高AI責任者、CDOなど、明確に定義された役職があるので、彼らが適任だ。「責任のあるAI」を実践するために、AIに関係しているすべての部署の人を集め、CFOやCEOもディスカッションに参加して方針を決定することが望ましいと言える。

――AI Defenseの今後のロードマップを教えてください。

サンパス氏:まずは提供地域を拡大していく。すでに欧州、インドなどの市場でも高い関心がある。

 機能面は、顧客の動向やニーズを見ながら拡大していく方針だ。AIエージェントの保護、マルチモーダル要件などについて考えている。特にマルチモーダルに関しては、AIのカバー領域がテキストから音声、動画へと急速に拡大しており、ここでも保護が求められるはずだ。

カテゴリートップへ

  • 角川アスキー総合研究所