このページの本文へ

「ChatGPT」OpenAIは安全性を後回しにしている 退職した社員が批判

2024年05月20日 15時00分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

 OpenAIが2023年7月に結成した、超知能(スーパーインテリジェンス)の制御と安全性の確保を目指す「スーパーアライメント(Superalignment)チーム」を率いていたイリヤ・サツケバー氏、ヤン・ライケ氏が相次いで退社を発表、ライケ氏は「安全性が製品開発より後回しになっている」と同社をXの投稿で批判した。

 サム・アルトマンCEOの解任騒動以来混乱が続くOpenAI首脳陣だが、サツケバー氏を中心とした「慎重派」がほぼ一掃された形になる。

計算リソースの20%を投入し4年以内の解決を目指す

 2023年7月5日、OpenAIはAIが人間の意図に従うようにするための科学的および技術的な突破口を見つけることを目標にした「スーパーアラインメント」チームを結成。サツケバー氏とライケ氏が共同リーダーを務め、計算リソースの20%を投入、4年以内にこの問題を解決すると宣言されていた。

中心人物2人が同時に退社を発表

 だが5月15日、チーム責任者のサツケバー氏とライケ氏が突如退社を発表。後任に主任研究員のヤクブ・パチョッキ氏が指名された。

 サツケバー氏は退社を発表したXの投稿で「OpenAIは安全で有益なAGIを構築できると確信しています」としたうえで、今後は個人的なプロジェクトに携わるとしている。

 一方、ライケ氏は同日「I resigned(私は退社しました)」とだけ投稿。鳴り物入りでスタートしたチームから主要な研究者が相次いで退社するという異常事態にも関わらず当事者からの理由の説明はなく、「昨年11月のサツケバー氏らによるアルトマンCEO解任騒動の余波か?」など様々な憶測を呼んだ。

退社の理由は首脳陣との意見の相違

 2日後の5月17日、沈黙を守っていたライケ氏が退社の理由をXに連続投稿する。

 そこには「私はOpenAI首脳陣と、会社の核となる優先事項について長い間意見が合わず、ついに限界に達しました」と、首脳陣との意見の相違が退社の理由だと明かされていた。

 さらにライケ氏は「人間よりも賢いマシンを作ることは本質的に危険な試みでありOpenAIは全人類を代表して大きな責任を担っている。しかしここ数年、安全文化や安全プロセスは、新製品のアピールよりも後回しにされてきた」と最近のOpenAIの商業主義を明確に批判。「OpenAIは安全第一のAGI企業にならなければならない」との希望を示した。

ブロックマン社長が反論するも

 ライケ氏の一連の投稿を受け、グレッグ・ブロックマン社長は5月18日、本件に関する長文ポストをアルトマンCEOとの連名でXで公開した。

 そこには「モデルの動作と悪用監視を継続的に改善」「安全基準を満たすためにリリース時期が遅れるのは問題ない」「あらゆる将来のシナリオを想定することはできないため、厳密なフィードバックループ、厳格なテスト、慎重な検討、世界最高のセキュリティ、安全性と能力のバランスが必要」などの項目が並ぶが、具体的なプランが示されているとは言い難い。

退社後のOpenAI批判を禁じられていた?

 不思議なのは、この1年に限っても多くの重要な人物がOpenAIとたもとを分かっているにも関わらず、退社後に同社を批判する人物がライケ氏などごく少数をのぞいて現れないことだ。

 これについて米メディア「Vox」は5月18日(現地時間)、「OpenAIは、退社時に署名する必要のある退職合意書で、生涯にわたって元雇用主を批判することを禁じるだけではなく、この合意書への署名を拒否した場合、在職中に獲得したストックオプションなどのすべての確定済み持分を失うという条項がある」という衝撃的なスクープを報じた。

 アルトマン氏は5月19日、Xの投稿において「私たちは誰の確定済み持分も取り消したことはありません」と否定しつつ「以前の退職書類には持分取り消しの可能性に関する条項がありました」と条項の存在は認めた。

 アルトマン氏は「これは私の責任であり、OpenAIを運営して本当に恥ずかしいと感じた数少ない時の一つです。このようなことが起きていたことを知りませんでしたし知っているべきでした」と必死に否定しているが、「さもありなん」と感じている人も多いだろう。

 元従業員が「退職した」としか投稿できないよう縛っている会社が果たして超知能を御すことができるのだろうか。

■関連サイト

カテゴリートップへ

ピックアップ