一文定義
インコンテキスト学習とは、モデルの重みを更新せず、プロンプト内の例示だけでタスクを遂行する能力です。few-shot learningの実現形式であり、GPT-3で初めて大規模に実証されました。
詳細解説
インコンテキスト学習(In-Context Learning、ICL)とは、LLMがパラメータを更新(学習)することなく、プロンプト内に含まれた例示(デモンストレーション)を参照して新しいタスクを実行できる能力です。GPT-3の論文(Brown et al., 2020)でfew-shot learningの実現形式として初めて大規模に実証されました。
インコンテキスト学習が重要な理由は、従来の機械学習では新タスクへの対応に大量のラベルデータとfine-tuningが必要でしたが、ICLでは数例の例示をプロンプトに含めるだけでモデルがタスクのパターンを把握し高精度に遂行できるためです。これはモデルの「汎化能力」の新たな形態であり、なぜ機能するかの理論的解明はまだ研究途上です。
ICLの形態として、1例も示さないzero-shot-learning、1〜数例を示すfew-shot-learningがあります。例示の品質・順序・フォーマットが性能に大きく影響することが知られており、これらを最適化することがprompt-engineeringの重要なテーマです。context-windowの制限内に例示を詰め込む必要があるため、長い例示が多数必要なタスクではRAGとの組み合わせが有効です。
参考情報・出典
- ▸Language Models are Few-Shot Learners (GPT-3)— arXiv / Brown et al. / OpenAI (2020)(参照日: 2026-02-26)
- ▸In-context learning - Wikipedia— Wikipedia(参照日: 2026-02-26)