現地時間8月29日、AI大手のOpenAIが、次世代のAIモデルを一般公開する前に米国政府機関と共有し、安全性テストをすることで合意したことが明らかになった。米国商務省傘下の国立標準技術研究所(NIST)に属する米国AI安全研究所との間で合意が結ばれた。OpenAIと競合関係にあるAnthropicも同様の内容で合意を結んでいる。
取り組みの目的は、AIモデルの公開前後に潜在的な安全性の問題を特定し、改善点についてフィードバックを提供することだ。米国AI安全研究所のエリザベス・ケリー所長は、これらの合意を「AIの未来を責任を持って管理するための重要な一歩」と評価。OpenAIのサム・アルトマンCEOは「多くの理由から、これが国レベルで行なわれることが重要だと考えています」とコメントした。
we are happy to have reached an agreement with the US AI Safety Institute for pre-release testing of our future models.
— Sam Altman (@sama) August 29, 2024
for many reasons, we think it's important that this happens at the national level. US needs to continue to lead!
この動きは、2023年に発表されたAIに関するホワイトハウスの大統領令を受けたものであり、米国におけるAIモデルの急速な展開に法的な枠組みを提供することを目的としている。
一方、海外メディアThe Informationの報道によれば、OpenAIは「Strawberry」というコードネームで呼ばれる新しいAI技術の開発を進めているとされている。Strawberryは複雑な数学やプログラミングの問題を解決する能力を持ち、既存モデルを上回る性能を示すという。OpenAIは今夏、国家安全保障関係者にStrawberryのデモンストレーションをしたとも報じられている。
i love summer in the garden pic.twitter.com/Ter5Z5nFMc
— Sam Altman (@sama) August 7, 2024