評価

Chain-of-Verification(CoVe)

チェーンオブベリフィケーション

一文定義

LLMが生成した回答を自己検証するプロンプト技術。回答生成後に検証質問を作り、各項目を独立して確認することでハルシネーションを減らす手法。

詳細解説

Chain-of-Verification(CoVe)とは、MetaのAI研究チームが2023年に提案した、LLMの生成する回答のハルシネーション(事実誤認)を自己検証によって削減するプロンプト技術です。LLMがまず回答を生成し、次にその回答に含まれる事実主張を検証する質問を自ら作成し、各質問に独立して回答することで誤りを発見・修正するという4段階のパイプラインで動作します。

4段階のプロセスとして、(1)初期回答の生成(Generate Baseline Response):通常通りユーザーの質問に回答を生成。この段階ではハルシネーションが含まれる可能性がある、(2)検証質問の計画(Plan Verifications):初期回答に含まれる事実主張(人名・日付・数値・因果関係等)を抽出し、それぞれを検証するための具体的な質問を生成。例:「東京タワーの高さは333mである」→「東京タワーの高さは何mか?」、(3)独立した検証の実行(Execute Verifications):各検証質問に対して、初期回答を見ずに独立して回答。これにより初期回答のバイアスに引きずられることを防止、(4)最終回答の生成(Generate Final Verified Response):検証結果を踏まえて初期回答を修正し、より正確な最終回答を生成、という流れで動作します。

効果として、Wikidata・MultiSpanQA等のベンチマークで、CoVeを適用することでハルシネーション率が大幅に削減されることが実証されています。特にリスト形式の回答(例:「〜の例を5つ挙げてください」)において、架空の項目が混入するハルシネーションの削減に高い効果を示しています。

実用上の考慮として、CoVeは複数回のLLM呼び出しを必要とするため、レイテンシとコストが増加します。本番環境では、高精度が求められるタスク(事実確認・医療・法律等)に選択的に適用し、通常の会話には適用しないという使い分けが推奨されます。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る