このページの本文へ

前へ 1 2 3 次へ

Ciscoが買収/統合した先進AI企業、これまでとこれからを聞く

「AIのセキュリティ」から「セキュリティのAI」へ Robust Intelligence・大柴氏

2025年07月17日 09時00分更新

文● 末岡洋子 編集● 大塚/TECH.ASCII.jp

  • この記事をはてなブックマークに追加
  • 本文印刷

Ciscoの新組織「Foundation AI」の狙いとこれから

――Ciscoが新組織として「Foundation AI」を発表しました。その基盤はRobust Intelligenceとのことですが、新組織の設立背景と目的について教えてください。

大柴氏:Foundation AIは、サイバーセキュリティにおけるAI活用の根本的な課題を解決することを目的としています。

 現在、AIは劇的な変革をもたらしている一方で、サイバーセキュリティ業界は最新AIの真のポテンシャルを十分に活かしきれていない現状があります。セキュリティアナリストがAIを活用して分析や解釈の効率性を上げる――といったことは、まだまだ一般的ではありません。

 この問題の背景には複数の要因があります。

 1つ目は「既存のAIモデルがサイバーセキュリティを目的として設計されていない」点です。ChatGPTのような汎用モデルは、一般的なタスクには優れていますが、サイバーセキュリティに求められる専門的で敵対的な要求には対応していません。

 2つ目として「サイバーセキュリティは、本質的に敵対的性質を持っていること」です。サイバーセキュリティインシデントの発生頻度は低く、そこから得られる貴重なデータも、機密性が高いため多くの場合は非公開です。そのため、AIモデルが敵対的性質を学習するための高品質で多様なデータが不足しています。

 3つ目は「既存のセキュリティシステムとの統合における課題」です。企業のセキュリティインフラは複雑であり、レガシーベースであるため、AIソリューションをスムーズに統合することが容易ではありません。

――そうした課題に対し、Foundation AIはどのようなアプローチを取るのでしょうか。

大柴氏:Foundation AIの大きな特徴は、オープンイノベーション戦略を採用していることです。テクノロジーを利用しやすくするため、Foundation AIで行う取り組みの大部分をオープンソースとして公開します。

 現在のセキュリティワークフローでは、計画、要約、推奨など、複数のLLMステップを連鎖させており、すべてのタスクに最適な単一の専用モデルは存在しません。オープンソースモデルであれば、特定のニーズに合わせて微調整したり、必要に応じてより優れたモデルに入れ替えたり、パフォーマンスや遅延、信頼性を最適化することが可能です。

 また、サイバーセキュリティ組織は外部SaaSを使用することができず、AIモデルを安全な環境で直接実行する必要があります。オープンソースモデルであれば、チームがモデルを所有、展開、保護できるため、この課題が解決されます。

 このように、サイバーセキュリティ分野、さらには業界全体に複合的な効果をもたらしたいと願っています。

――具体的にどのような製品やソリューションを開発されているのでしょうか?

大柴氏:Foundation AIでは、4つの主要なカテゴリーで製品開発を進めています。(1)サイバーセキュリティに特化したベースモデル、(2)世界初のセキュリティ特化推論モデル、(3)実際のセキュリティ事例におけるベンチマーク、(4)AIサプライチェーンインテリジェンス、です。

 (1)は80億パラメータのモデルで、Llamaをベースにしながら公開されているサイバーセキュリティデータで事前トレーニングを行いました。このモデルはHugging Faceからダウンロード可能で、実際に3万近いダウンロードを記録しています。セキュリティ研究者がどのぐらいいるのかと考えると、このダウンロード数はかなりの数です。我々の活動に注目しているといって良いでしょう。

 なお、このモデルは大規模な汎用モデルと比較して10分の1ほどのサイズですが、サイバーセキュリティタスクにおいては、より優れた性能を示しています。

 (2)は2025年夏後半にリリース予定で、セキュリティデータ内の複雑な関係やコンテキストを理解するための高度な推論機能を備える予定です。

 (3)は、既存のベンチマークが、脅威インテリジェンスレポートの理解、悪意のあるコードの分析といったセキュリティ業務の複雑性を完全には捉えきれていないことから開発を進めています。Ciscoのセキュリティ部門、Splunk、その他パートナーのアナリストの専門知識を活用しています。

 (4)ですが、実行可能コードを含むモデルファイルや、著作権で保護された学習データを利用するモデルファイルなど、企業にとってAIサプライチェーンのリスクとなります。このようなリスクへの対策となるインテリジェンスです。なお、このテクノロジーはすでにCiscoのSecure Endpoint、Email Threat Protection製品、Secure Accessに組み込まれています。

――すでに攻撃者側はAIを使っています。セキュリティにおけるAI活用のスピードは加速するでしょうか?

大柴氏:まだまだこれからです。答え合わせはおそらく3年ほど後に、我々も含め「サイバーセキュリティ業界として何ができたか」という点から評価が下るでしょう。

 先ほども説明しましたが、サイバーセキュリティ業界におけるAIの導入はゆっくりとしたスピードです。課題や懸念を解きほぐしていく必要があると感じており、我々はそこに使命を感じています。“Foundation”という言葉には“土台”“素地”などの意味がありますが、3~5年後に、サイバーセキュリティにおけるAIの受け入れがきちんと進んでいる環境をつくっていくための基盤をFoundation AIでしっかり進めていきたい。そんな思いを込めています。

前へ 1 2 3 次へ

カテゴリートップへ

  • 角川アスキー総合研究所