OpenAIは7月6日、公共の安全に深刻なリスクをもたらす能力を保有する可能性のある、先進的なAIモデルを規制するためのプランを発表した。
課題に対処するための3つの要素を提示
OpenAIは、GPT-4のような非常に能力が高い基礎モデルを「フロンティアAI」と呼んでおり、人類に多大な利益をもたらす一方、危険な能力が予期せず発生する可能性があること、悪用されるのを防止することが困難であること、影響が広範囲に拡散するのを阻止しにくいことなど明確な規制上の課題を引き起こすことを指摘している。
続けて、これらの課題に対処するための規制案に必要な以下の3つの要素をあげた。
・フロンティアAI開発者に対する適切な要件を特定するための標準設定プロセス
・規制当局がフロンティアAIの開発プロセスを可視化するための登録・報告要件
・フロンティアAIモデルの開発・展開における安全基準の遵守を保証するメカニズム
政府の介入も必要
また、業界の自主規制は重要であるが、基準を策定しその遵守を確保するためには、より広範な社会的議論と政府の介入が必要とし、監督当局への執行権限の付与やフロンティアAIモデルに対する免許制度などを検討しているという。
さらに、安全基準の初期セットとして、デプロイ前のリスク評価の実施、モデルの行動に関する外部からの精査、デプロイの意思決定にリスク評価を活用すること、デプロイ後のモデルの能力と用途に関する新たな情報を監視し対応することなどを提案している。
6月にはEU議会が生成AIの規制を盛り込んだAI規制法案の修正案を可決した。また、米国を中心にAI企業を相手取り、著作権やプライバシーの侵害を訴えた訴訟が相次いでいる。今回のプランは困難な状況を乗り越えるための切り札になるのだろうか。