基礎概念

ロングコンテキスト

ロングコンテキスト

一文定義

ロングコンテキストとは、数十万〜数百万トークンを一度に処理できるLLMの能力です。Gemini 1.5(100万トークン)やClaude(20万トークン)が先行しており、長文書・コードベース全体・動画の一括処理が可能になります。

詳細解説

ロングコンテキスト(Long Context)とは、LLMがシングルプロンプトで処理できるトークン数(context-window)を大幅に拡張した能力です。従来のGPT-3の4,096トークン(約3,000単語)から、現在は数十万〜数百万トークン(書籍数冊分)を一度に処理できるモデルが登場しています。

ロングコンテキストが重要な理由は、「分割して処理する」という従来の制約が撤廃され、大規模な文書・コード・データを一度に参照した上でのより正確な分析・生成が可能になるためです。法律文書全体の分析、大規模コードベースの理解、長時間動画のトランスクリプト処理、数百ページの研究論文の精読など、新しいユースケースが開拓されています。

主要モデルのコンテキスト長として、Gemini 1.5 Pro(100万トークン、約75万語)、Gemini 1.5 Flash(100万トークン)、Claude 3シリーズ(20万トークン)、GPT-4o(128,000トークン)などがあります。ただし長大なコンテキストに対して「Lost in the Middle」問題(文書の中間部分の情報を見落とす傾向)が報告されており、prompt-cachingとの組み合わせでコスト最適化することも重要な実装上の考慮事項です。RAGと長コンテキストは競合より補完の関係にあり、用途に応じて使い分けられています。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る