このページの本文へ

OpenAI、AIを安全に使用するための取り組みを発表

2023年04月06日 15時20分更新

文● 田口和裕

  • この記事をはてなブックマークに追加
  • 本文印刷

 OpenAIは4月5日(現地時間)、「Our approach to AI safety(わたしたちのAI安全対策)」と題したドキュメントを発表した。AI開発が急速に進むことに懸念を示す世論に対する返答と考えられる。

OpenAIの「安全なAI」開発に向けた取り組み

 3月29日、非営利組織Future of Life Institute(FLI)が「GPT-4」より強力なAIシステムのトレーニングを6ヵ月間停止するよう提案する公開書簡を発表、31日にはイタリアのデータ保護当局が、OpenAIによる同国ユーザーのデータ処理に一時的な制限を課す命令を出すなどここ数日、急速なAI開発に対し見直しを求める事案が続いている。

 今回のドキュメントには「OpenAIは、強力なAIを安全に、そして広く有益に保つことを約束します」と改めて宣言したうえで、OpenAIが「安全なAI」に向けこれまで取り組んできた施策を6つの節にわけて改めて記したもので、特に新しい内容は見当たらない。

 

 とは言えAIの急速な進化を懸念する世論には誤解も多分に含まれており、それを払拭するためのものと思われる。

より安全なAIシステムの構築

 ここではシステム開発における全体的な安全対策が説明されている。

 OpenAIでは新しいシステムを公開する前に厳密なテストをし、外部の専門家にフィードバックを求め、人間のフィードバックによる強化学習などの手法でモデルの動作を改善し、幅広い安全性と監視システムを構築している。

 例えばGPT-4の場合、トレーニング終了後に6ヵ月以上かけて組織全体で改善に取り組んだという。

 また、「強力なAIシステムは厳格な安全性評価の対象となるべきで、そのためには規制が必要」と考えており、各国政府と積極的に協力していくという。

リサーチプレビューで実際の使用状況から学ぶ

 OpenAIは研究室でのテストだけではなく、実際の使用状況から学ぶことが重要であり、研究者だけではなく「AI技術の影響を受けるすべての人が発言権を持つべき」と考えている。

 そのため、GPT-4やChatGPTといった安全対策を施したシステムを、慎重かつ徐々にフリーリサーチプレビューとして公開し、継続的に改良を加えている。

 また、プレビューを通して不正使用を監視し、対策を実施しながら有益な利用とリスク管理のバランスを見つけ、より適切なポリシーを開発していくという

子どもたちを守るために

 児童を守ることにも注力しており、AIツールの利用は18歳以上、または保護者の承認を得た13歳以上に義務付けている。認証オプションも検討しているという。

 また、憎悪、嫌がらせ、暴力、アダルトなどのコンテンツが生成されないよう対策を施しており、最新モデルのGPT-4は、GPT-3.5と比較して、許可されていないコンテンツのリクエストに応える可能性が82%低くなっている。

 GPT-4は現在、有料プランの「ChatGPT Plus」加入者にしか提供されていないが、今後はそれ以外の人にも使えるようにしていく方針だ。

 さらに、より厳しい制限を必要とするコンテンツにも対応できるよう、開発者がモデルの出力に対してより厳しい基準を設定できるようにする機能にも取り組んでいるという。

プライバシーの尊重

 GPT-4のような大規模言語モデル(LLM)は、インターネット上に公開されている幅広いテキストでトレーニングされている。また、ChatGPTは、ユーザーと交わした会話をさらに機能向上のための学習データとして使用している。

 その中には個人情報も含まれているが、OpenAIは可能な限りトレーニングデータセットから個人情報を削除し、個人情報に対する要求を拒否するようにモデルを微調整しており、個人情報を含む回答を生成する可能性を最小限に抑えているという。

事実関係の正確性の向上

 大規模言語モデルは、質問に対する答えを人間のように考えているのではなく「ユーザーが入力したテキストを含め、過去に見たパターンに基づいて次の一連の単語を予測」しているため、現時点で事実ではない不正確な回答(ハルシネーション)を出してくることも多い。

 OpenAIは公開中のChatGPTに対するユーザーのフィードバックを事実精度向上のための主なデータソースとして活用しており、その結果GPT-4は、GPT-3.5と比較して、事実に基づいたコンテンツを生成する可能性が40%高くなったという。

 とは言えハルシネーションの可能性はまだ残っており、「AIツールの現在の限界について一般の人々を教育する」必要があることを認識しているという。

継続的な研究とエンゲージメント

 OpenAIは、AIの安全性に関する懸念を解決するための現実的なアプローチとして「効果的な緩和策やアライメント技術の研究に多くの時間とリソースをさき、現実世界の悪用に対してテストしていくこと」と考えており、「AIの安全性と能力を向上させることは両立させるべき」と、AIの研究をストップすることに明確に異を唱えている。

 OpenAIは今後も「安全なAIエコシステムを構築するために、関係者間の協力とオープンな対話を促進していく」と文章を締めくくっている。

 AIの開発はここにきて慎重派と推進派に二分されてきた感がある。今後しばらくはこの議論も続きそうだ。

カテゴリートップへ

ピックアップ