このページの本文へ

AIチャットボット向け「うそ発見器」、LLMの幻覚見抜く

2024年05月01日 06時57分更新

文● Will Douglas Heaven

  • この記事をはてなブックマークに追加
  • 本文印刷

チャットGPTのような大規模言語モデルを企業で利用する際に問題となるのが、ハルシネーション(幻覚)だ。MIT発のスタートアップは、モデルの回答がどの程度信頼できるかを示すツールを開発した。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ