一文定義
LLMが生成した回答を自己検証するプロンプト技術。回答生成後に検証質問を作り、各項目を独立して確認することでハルシネーションを減らす手法。
詳細解説
Chain-of-Verification(CoVe)とは、MetaのAI研究チームが2023年に提案した、LLMの生成する回答のハルシネーション(事実誤認)を自己検証によって削減するプロンプト技術です。LLMがまず回答を生成し、次にその回答に含まれる事実主張を検証する質問を自ら作成し、各質問に独立して回答することで誤りを発見・修正するという4段階のパイプラインで動作します。
4段階のプロセスとして、(1)初期回答の生成(Generate Baseline Response):通常通りユーザーの質問に回答を生成。この段階ではハルシネーションが含まれる可能性がある、(2)検証質問の計画(Plan Verifications):初期回答に含まれる事実主張(人名・日付・数値・因果関係等)を抽出し、それぞれを検証するための具体的な質問を生成。例:「東京タワーの高さは333mである」→「東京タワーの高さは何mか?」、(3)独立した検証の実行(Execute Verifications):各検証質問に対して、初期回答を見ずに独立して回答。これにより初期回答のバイアスに引きずられることを防止、(4)最終回答の生成(Generate Final Verified Response):検証結果を踏まえて初期回答を修正し、より正確な最終回答を生成、という流れで動作します。
効果として、Wikidata・MultiSpanQA等のベンチマークで、CoVeを適用することでハルシネーション率が大幅に削減されることが実証されています。特にリスト形式の回答(例:「〜の例を5つ挙げてください」)において、架空の項目が混入するハルシネーションの削減に高い効果を示しています。
実用上の考慮として、CoVeは複数回のLLM呼び出しを必要とするため、レイテンシとコストが増加します。本番環境では、高精度が求められるタスク(事実確認・医療・法律等)に選択的に適用し、通常の会話には適用しないという使い分けが推奨されます。
参考情報・出典
- ▸Chain-of-Verification Reduces Hallucination in Large Language Models— arXiv / Dhuliawala et al. (Meta)(参照日: 2026-02-26)
- ▸Chain of Verification – Meta AI Research— Meta AI(参照日: 2026-02-26)