評価

ハルシネーション(幻覚)

ハルシネーション(げんかく)

一文定義

ハルシネーションとは、LLMが事実と異なる情報をもっともらしく生成する現象です。自信満々に嘘をつくため、出力の事実確認が必須となります。

詳細解説

ハルシネーション(Hallucination:幻覚)とは、LLMが根拠のない事実・存在しない引用・誤った数値などを、あたかも正確な情報であるかのように生成する現象です。

なぜ起きるかというと、LLMは「次に確率的に尤もらしいトークン」を予測する仕組みのため、知識がない場合でも流暢な文章を生成しようとします。この結果、事実確認なしに内容を作り出すことがあります。

主な対策は3つあります。①RAGを用いて根拠ドキュメントを明示する②複数回答させて一致度を確認する③モデルに「不確かな場合はその旨を述べること」を指示するプロンプト設計。特に医療・法律・財務情報など、誤りが重大な影響を及ぼす領域では、専門家によるファクトチェックを必ず組み合わせることが推奨されます。

参考情報・出典

最終更新: 2026-02-25← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る