このページの本文へ

解説:生成AIのハルシネーションはなぜ起きるのか

2024年06月24日 06時57分更新

文● Will Douglas Heaven

  • この記事をはてなブックマークに追加
  • 本文印刷

大規模言語モデルが「ハルシネーション(幻覚)」を生成することはよく知られている。ただ、その仕組みから明らかのように、LLMの出力は本質的にはすべてハルシネーションであり、間違いが発覚したものがそう呼ばれているだけだ。

カテゴリートップへ

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ