このページの本文へ

OpenAIの次世代AIモデル、米政府機関が安全性検証へ

2024年08月30日 17時00分更新

文● G.Raymond 編集●ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

 現地時間8月29日、AI大手のOpenAIが、次世代のAIモデルを一般公開する前に米国政府機関と共有し、安全性テストをすることで合意したことが明らかになった。米国商務省傘下の国立標準技術研究所(NIST)に属する米国AI安全研究所との間で合意が結ばれた。OpenAIと競合関係にあるAnthropicも同様の内容で合意を結んでいる。

 取り組みの目的は、AIモデルの公開前後に潜在的な安全性の問題を特定し、改善点についてフィードバックを提供することだ。米国AI安全研究所のエリザベス・ケリー所長は、これらの合意を「AIの未来を責任を持って管理するための重要な一歩」と評価。OpenAIのサム・アルトマンCEOは「多くの理由から、これが国レベルで行なわれることが重要だと考えています」とコメントした。

 この動きは、2023年に発表されたAIに関するホワイトハウスの大統領令を受けたものであり、米国におけるAIモデルの急速な展開に法的な枠組みを提供することを目的としている。

 一方、海外メディアThe Informationの報道によれば、OpenAIは「Strawberry」というコードネームで呼ばれる新しいAI技術の開発を進めているとされている。Strawberryは複雑な数学やプログラミングの問題を解決する能力を持ち、既存モデルを上回る性能を示すという。OpenAIは今夏、国家安全保障関係者にStrawberryのデモンストレーションをしたとも報じられている。

 

■関連サイト

カテゴリートップへ

ピックアップ