評価

AIハルシネーション軽減

エーアイハルシネーションけいげん

一文定義

AIハルシネーション軽減とは、LLMの事実誤認・虚偽生成を検出・防止・軽減する技術と戦略の総称で、RAG・グラウンディング・自己一貫性・チェーンオブベリフィケーションなど複数のアプローチがあります。

詳細解説

AIハルシネーション軽減(AI Hallucination Mitigation)とは、LLMが事実に反する情報・存在しない引用・誤った数値などを生成してしまう「ハルシネーション」を検出・防止・削減するための技術・手法・戦略の総称です。

ハルシネーションが発生する主な原因として、学習データの偏りや欠如、モデルが「それらしい回答」を生成するように学習されていること、コンテキストウィンドウを超えた情報の不正確な記憶などがあります。

軽減アプローチは複数あります。予防的アプローチとして、RAGによる外部知識の動的取得、ドキュメントグラウンディングによる引用元の明示化があります。検出・修正アプローチとして、自己一貫性(複数の回答を生成して多数決)、チェーンオブベリフィケーション(生成後に自己チェック質問を行う)、LLM-as-Judgeによるファクトチェックがあります。

また、「わかりません」と答えられるモデルの訓練(知識境界の学習)や、温度パラメータを下げて確定的な回答を促す方法も効果的です。企業導入では複数の手法を組み合わせることが推奨されます。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る