このページの本文へ

LLMの暴走を防げるか?オープンAIが明かした「ストレステスト」の中身

2024年11月27日 06時58分更新

文● Will Douglas Heaven

  • この記事をはてなブックマークに追加
  • 本文印刷

大規模言語モデル(LLM)は、差別的な発言や暴力的な回答を出力することがある。チャットGPTの開発元であるオープンAIは、LLMの有害な振る舞いを防ぐために実施している安全性テストの手法を一部公表した。

カテゴリートップへ

  • 角川アスキー総合研究所

MSIが変える、未来のクリエイターを育てる教育環境

アスキー・ビジネスセレクション

ピックアップ