一文定義
ロングコンテキストとは、数十万〜数百万トークンを一度に処理できるLLMの能力です。Gemini 1.5(100万トークン)やClaude(20万トークン)が先行しており、長文書・コードベース全体・動画の一括処理が可能になります。
詳細解説
ロングコンテキスト(Long Context)とは、LLMがシングルプロンプトで処理できるトークン数(context-window)を大幅に拡張した能力です。従来のGPT-3の4,096トークン(約3,000単語)から、現在は数十万〜数百万トークン(書籍数冊分)を一度に処理できるモデルが登場しています。
ロングコンテキストが重要な理由は、「分割して処理する」という従来の制約が撤廃され、大規模な文書・コード・データを一度に参照した上でのより正確な分析・生成が可能になるためです。法律文書全体の分析、大規模コードベースの理解、長時間動画のトランスクリプト処理、数百ページの研究論文の精読など、新しいユースケースが開拓されています。
主要モデルのコンテキスト長として、Gemini 1.5 Pro(100万トークン、約75万語)、Gemini 1.5 Flash(100万トークン)、Claude 3シリーズ(20万トークン)、GPT-4o(128,000トークン)などがあります。ただし長大なコンテキストに対して「Lost in the Middle」問題(文書の中間部分の情報を見落とす傾向)が報告されており、prompt-cachingとの組み合わせでコスト最適化することも重要な実装上の考慮事項です。RAGと長コンテキストは競合より補完の関係にあり、用途に応じて使い分けられています。
参考情報・出典
- ▸Gemini 1.5: Unlocking multimodal understanding across millions of tokens of context— arXiv / Google DeepMind (2024)(参照日: 2026-02-26)
- ▸Claude's long context window - Anthropic— Anthropic(参照日: 2026-02-26)