Cloudflareは3月4日、「Firewall for AI」を発表した。
本サービスは、不正行為やサイバー攻撃が大規模言語モデル(LLM)に到達し、改ざんを実行する前にそれらを特定するもの。
Cloudflare Workers AI上で動作するあらゆるLLMの前にデプロイ可能。ユーザーが送信したプロンプトをスキャンおよび評価することで、AIモデルを悪用してデータを盗み出そうとする行為をより的確に特定できるという。
また、Cloudflareのグローバルネットワーク上に構築された本サービスは、エンドユーザーの至近距離にデプロイされるため、悪意のある行為から過去に前例のない性能で即座にAIモデルを保護。
さらに、Cloudflare Workers AI上で大規模言語モデル(LLM)が実行されている場合は、Firewall for AIによって無償で保護。これによって、プロンプトインジェクションやデータ漏洩などの日々山積する問題を防げるとのこと。