一文定義
ハルシネーションとは、LLMが事実と異なる情報をもっともらしく生成する現象です。自信満々に嘘をつくため、出力の事実確認が必須となります。
詳細解説
ハルシネーション(Hallucination:幻覚)とは、LLMが根拠のない事実・存在しない引用・誤った数値などを、あたかも正確な情報であるかのように生成する現象です。
なぜ起きるかというと、LLMは「次に確率的に尤もらしいトークン」を予測する仕組みのため、知識がない場合でも流暢な文章を生成しようとします。この結果、事実確認なしに内容を作り出すことがあります。
主な対策は3つあります。①RAGを用いて根拠ドキュメントを明示する②複数回答させて一致度を確認する③モデルに「不確かな場合はその旨を述べること」を指示するプロンプト設計。特に医療・法律・財務情報など、誤りが重大な影響を及ぼす領域では、専門家によるファクトチェックを必ず組み合わせることが推奨されます。
参考情報・出典
- ▸Survey of Hallucination in Natural Language Generation— arXiv(参照日: 2026-02-25)
- ▸Hallucination (artificial intelligence) - Wikipedia— Wikipedia(参照日: 2026-02-25)
最終更新: 2026-02-25← 用語集一覧へ