OpenAIは5月28日(現地時間)、「GPT-5」と予想される次世代フロンティアモデルのトレーニングを開始したことを発表。あわせてサム・アルトマンCEOら同社取締役が率いる安全保障委員会を設置した。
今後90日間で安全に関する提言を評価・公表
ブレット・テイラー取締役を委員長とし、サム・アルトマンCEO、アダム・ディアンジェロ取締役、ニコール・セリグマン取締役が率いる安全保障委員会は、OpenAIのプロジェクト運営に関する重要な安全とセキュリティの決定について、取締役会全体に提言する責任を負う。
同委員会は、今後90日間で5月21日に発表されたOpenAIのプロセスと保護措置を評価し、提言内容を取締役会全体と共有。取締役会全体による検討の後、採用された提言について安全とセキュリティに配慮した方法で公表する。
同委員会には、OpenAIの技術・政策の専門家であるAleksander Madry準備部門長、Lilian Weng安全システム部門長、John Schulmanアラインメントサイエンス部門長、Matt Knightセキュリティ部門長、Jakub Pachocki最高科学者も参加する。
さらに、元サイバーセキュリティ当局者でありOpenAIのセキュリティアドバイザーを務めるRob Joyce氏、John Carlin氏などの専門家を起用しこの活動をサポートするという。