実装

ハルシネーション検出

ハルシネーションけんしゅつ

一文定義

LLMが生成した回答の事実確認・信頼度評価を自動で行いハルシネーションを検出する技術・手法。

詳細解説

ハルシネーション検出(AI Hallucination Detection)とは、LLMが生成したテキストに含まれる事実誤認・根拠のない主張・矛盾を自動的に識別・スコアリングする技術と手法の総称です。RAGシステムや高精度が求められるビジネス用途において、品質保証の要として重要性が増しています。

主なアプローチとして、(1)グラウンディング検証(生成文を出典文書と照合し根拠のない記述を検出)、(2)LLM-as-Judge(別のLLMが事実性・一貫性・忠実性を採点)、(3)確信度スコアリング(モデルのログ確率やトークン確率を用いた不確実性推定)、(4)外部知識ベース照合(WikidataなどのKGと突き合わせ検証)があります。

ツールとしてはTruLens(RAGas評価ライブラリ)、Galileo(本番モニタリング)、Ragas(RAG評価フレームワーク)、FACTSCORE(Wikipedia事実性評価)などが利用されています。評価指標には忠実性(Faithfulness)・回答関連性(Answer Relevancy)・コンテキスト精度(Context Precision)が広く使われています。

検出後の対策として、不確実な回答には「確認が取れていません」などの免責表示を付加するConfidence Calibration、または再検索・再生成をトリガーするフォールバック設計が有効です。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る