AI導入により変化する組織、異なるセキュリティの考え方が必要

文●フォーティネットジャパン 編集●ASCII

提供: フォーティネットジャパン

  • この記事をはてなブックマークに追加
  • 本文印刷

本記事はフォーティネットジャパンが提供する「FORTINETブログ」に掲載された「AIセキュリティはアーキテクチャ上の決定事項」を再編集したものです。

AIの導入が加速する中、組織はクリティカルなアーキテクチャ上の決定に直面しています。既存のセキュリティ制御(ID、ポリシー適用、可観測性、データガバナンス)をAIシステムにまで拡張するか、AIを別のレイヤーとして保護するかです。この選択が、AIが回復力をもたらすか不安定性をもたらすかを決定します。

パブリックな生成AI(GenAI)ツールでの実験として始まったものが、基盤的なものへと進化しました。多くの企業は、プライベートな大規模言語モデル(LLM)環境の構築を開始し、AIをコアアプリケーションに統合し、データを取得し、APIと対話し、ビジネスシステム全体でワークフローを開始するエージェントシステムを展開しています。その結果、AIはもはや周辺的なものではありません。代わりに、インフラストラクチャの一部になりつつあります。

この変化には、異なるセキュリティの考え方が必要です。

最も一般的な誤りは、AIを独立したアプリケーションスタックとして、別個の制御で扱うことです。実際には、AIワークロードはIDシステム、ネットワークポリシー、データガバナンス、API適用、運用ワークフローに依存し、影響を与えます。AIを効果的に保護するには、アーキテクチャ全体のすべての制御ポイントにガバナンス、トラフィックインスペクション、ポリシー適用を組み込む必要があります。

AIは攻撃対象領域を複数のレイヤーで拡大する

AIリスクは単一の制御ポイントに限定されません。それは複数のレイヤーにわたって現れます。

インタフェースレイヤーでは、 パブリックGenAIツールとユーザープロンプトが、シャドーAIの使用と不十分に管理されたワークフローを通じて露出を生み出します。
ナレッジレイヤーでは、プライベートLLMインフラストラクチャ—トレーニングデータ、ベクトルデータベース、検索パイプライン、モデルロジック—が企業の責任下に置かれます。AIが企業システム内で動作するようになると、組織はその完全性と保護に対する全責任を負うことになります。
アクションレイヤーでは、エージェント型AIが自律性をもたらします。エージェントはデータを取得し、システム間で情報を転送し、APIを呼び出し、自動化されたプロセスをトリガーします。多くの場合、マシン速度で実行されます。

これらのレイヤーは独立していません。自律性が高まるにつれて、リスクは複合的に増大します。中心的な課題は、可視性を単独で確保することではなく、フルスタック全体にわたる協調的な適用です。

順序の問題

組織がAIをどのように導入するかは、何を展開するかと同じくらい重要です。

GenAIの制御された使用から始め、プライベートLLMインフラストラクチャのガバナンスを確立し、ポリシーとセグメンテーションのフレームワークを開発した後にのみエージェント型の自律性を導入する組織もあれば、実験から自動化へ直接移行し、アーキテクチャ上のガードレールが完全に整う前にエージェントを展開する組織もあります。

業界予測によると、これらのエージェント優先のイニシアチブの多くは再設計または放棄されることになります。これは基盤となるテクノロジーが失敗するからではなく、ガバナンスが早期に統合されなかったためです。自律性がアーキテクチャを上回ると、組織は最終的に規制、セキュリティ、またはコストの制約に直面し、再設計を余儀なくされます。

これは技術的な制限ではありません。順序の問題です。ガバナンスは自律性よりも先に拡張する必要があります。

ランタイムはAIリスクが顕在化する場所

開発時の制御とデプロイメント前のテストは、本番環境のAIへの攻撃を防ぐには不十分です。AIモデルが本番環境に入ると、プロンプトインジェクション、モデル操作、APIの悪用、推論中のシステム間データ流出など、新たな脅威が出現します。

プライベートLLMは、トレーニングデータのポイズニングやモデル抽出など、追加のランタイムリスクに直面します。エージェントシステムは、ユーザーを認証し、エンタープライズAPIを呼び出し、ビジネスシステムと直接対話することで、潜在的な影響を増大させます。そのため、AIセキュリティには、運用中のユーザー、エージェント、ネットワーク、アプリケーションに対する継続的な制御が必要です。 

実際には、これはAIをネットワーク全体で保護し、ファイアウォール、APIゲートウェイ、SIEMでゼロトラストネットワークアクセス(ZTNA)を使用してポリシーを同時に適用する必要があることを意味します。

実現要因としてのコンバージェンス

より広範な意味合いはアーキテクチャ上のものです。

断片化されたネットワーキングとセキュリティスタックを持つ組織は、AIを安全に管理するのに苦労するでしょう。ポリシー適用、テレメトリ、アイデンティティ制御、APIインスペクションが切り離されたシステムに分散している場合、AIはセキュリティギャップと新たな脆弱性を生み出します。

セキュアネットワーキングのコンバージェンスは、代替アプローチを提供します。統合されたオペレーティングシステム基盤、共有ポリシーフレームワーク、調整されたテレメトリモデルにより、エッジ、クラウド、データセンター環境全体で一貫した適用が可能になります。AIワークロードは、他の重要なシステムと同じ規律に従う必要があります。

フォーティネットプラットフォームが進化するにつれて、AIの可視性、ランタイムガードレール、エージェント制御は、別個のシステムとして開発されるのではなく、コンバージェンスされた基盤に統合されてきました。原則はシンプルです。イノベーションはアーキテクチャを強化すべきであり、分断すべきではありません。

エージェントシステムのガバナンス

エージェントAIは最も重大な変化を表しています。これらのシステムは洞察を生成するだけではありません。情報を取得し、データを分析し、APIと対話することで行動を起こします。それらの決定は、管理環境全体に即座に広がる可能性もあります。

そのレベルの権限には、エージェントがどのように通信するか、そのアイデンティティのコンテキスト、およびその行動がエンタープライズポリシーとどのように整合しているかについての可視性が必要です。最低限、自動化はガバナンスフレームワークに対して説明責任を維持する必要があります。つまり、エージェントシステムは確立された境界内で動作し、それを超えてはならず、その行動はログに記録され、説明可能で、監査可能でなければなりません。

次に来るものへの準備

AIの採用は拡大し続けるでしょう。より多くの企業がAI実験を本格的な本番環境に移行するにつれて、AIインフラストラクチャは規制圧力とデータレジデンシーへの懸念に対応して成長していきます。その結果、エージェントシステムはより成熟していくでしょう。

成功する組織は、孤立したソリューションを急いでデプロイする組織ではなく、AIセキュリティが組み込まれた堅牢なアーキテクチャフレームワークを選択する組織です。AIが本番環境の一部となるにつれて、AIは独立したコンポーネントとしてではなく、アーキテクチャの一部として管理される必要があります。

これらのテーマは、4月21日に開催される2026年フォーティネットAIセキュリティサミットの中心となります。このサミットでは、業界アナリスト、お客様、実務者が、パブリックGenAIの使用、プライベートLLMデプロイメント、エージェント運用全体でAIを保護する方法を検討します。焦点は、アーキテクチャの規律に置かれます。つまり、可視性の維持、ポリシーの実施、新たな運用上の障害点を生み出すことなく自動化を拡張することです。 

2026年フォーティネットAIセキュリティサミットに今すぐ登録し、すでに企業を保護しているシステム内で大規模にAIを保護する方法についての議論にご参加ください。

■関連サイト

本記事はアフィリエイトプログラムによる収益を得ている場合があります