「利活用」と「統制」を両立するための現実的アプローチ
求められるのは、利活用と統制を両立させる現実的なアプローチだ。
レゲブ氏はまず、AIエージェント管理における前提として「ゼロトラストと最小権限の原則を徹底すべきだ」と強調する。AIエージェントには恒久的な権限を与えず、必要なときだけ最小限の権限を付与し、タスク終了後にはすぐに権限を剥奪する運用が望ましい。「AIエージェントは常に“ゼロスタンディング・プリビレッジ(ZSP、特権IDを常時持たせない運用)”から始めるべきだ。必要なときだけ権限を付与し、完了後は残さない。これが最も確実な防御となる」と述べる。
さらに、権限を与える際には行動目的を明確にし、正当性を検証する仕組みが必要だという。レゲブ氏はこれを「エージェントの正当性確認(Agent Justification)」と呼ぶ。「(人間のユーザーと同じように)AIエージェントにも行動理由を説明させる必要がある。たとえば、人事部門のAIがSalesforceにアクセスしようとしたら、それは不自然だと判断して遮断できるようにする」と説明する。
AIエージェントの行動は予測不能であり、固定的なセキュリティポリシーでは対応できない。したがって運用側には、動的な権限付与と自動化されたガバナンスが求められる。タスクや状況に応じてポリシーを即座に更新し、常に最新の状態で管理する体制が必要だ。レゲブ氏は「AIエージェントの世界では、静的なルールではなく、継続的なモニタリングと自動判断が前提になる」と語る。
もう1つの重要な要素は「可視化」だという。将来的に、AIエージェントは組織内に数千、数万単位で存在するようになる。まずは「何が、どこで、どのように動いているのか」を可視化することが、リスク発見の第一歩となる。「人間のIDならActive Directoryで把握できるが、AIエージェントは放置すればすぐに“見えなくなる”。最初にやるべきことは発見(ディスカバリー)だ」と説明する。
そのうえで、AIエージェントが実際に行っている操作や通信を継続的に監視し、異常があれば即時に対応する仕組みを構築する。特に、AIエージェント同士が連携する「エージェント・ツー・エージェント通信」は、可視化が遅れると脆弱性の温床になりやすい。こうした動きを把握し、動的に制御するための自動ガバナンス基盤の整備が求められる。「最も避けるべきは、知らないうちにAIがシステム内部で意思決定を行う状態だ」と警告する。
AIエージェント時代の統制と日本企業の課題
CyberArkが年内の提供開始を予定している「CyberArk Secure AI Agents」は、同社のIdentity Security Platform上で動作し、人間/マシン/AIエージェントのすべてを統一的なポリシーで管理する仕組みを備える。AIエージェントの行動を動的に監視し、ゼロトラスト原則に基づいて必要なときだけ権限を付与することで、リスクを最小限に抑える設計だ。「私たちは、人とマシン、AIを区別せず、同じセキュリティ基盤で扱えるようにすることを目指している」と、その目的を説明する。
レゲブ氏はまた、「日本企業はコンプライアンスやリスク管理に強い関心を持ち、AIエージェントを含むあらゆるアイデンティティの一元管理のニーズが高い」と述べる。
その一方で、日本市場には特有の制約も存在する。CyberArk Japanの柿澤光郎氏は「日本では法制度や業界ガイドラインが厳格であり、特にAPPIやFISC準拠のもとで最小権限や職務分離が強く求められている」と話す。データレジデンシーの問題も根強く、データの保存場所や管理責任の所在を明確にする必要がある。さらに、長期サポートや品質を重視する文化もあり、企業が選ぶソリューションには継続性と信頼性が不可欠とされる。
AIエージェントの台頭によって、企業のアイデンティティ環境はこれまで以上に動的で複雑になっている。管理対象は人間やサーバーだけでなく、目的をもって自律的に行動するプログラムへと拡大した。レゲブ氏は「AIエージェントの時代に入った今、セキュリティの中心にあるべきは“誰が何をできるか”の統制だ」と語る。AIを排除するのではなく、同じ基盤の上で安全に共存させる。そのための基盤整備こそが、次の時代の競争力を左右する鍵となる。








