一文定義
LLMとデータを接続するためのデータフレームワーク。RAGパイプライン・エージェント・データコネクタの構築に特化しLangChainと並ぶ主要ライブラリ。
詳細解説
LlamaIndex(旧称GPT Index)とは、LLM(大規模言語モデル)を外部データと効率的に接続するためのPythonデータフレームワークです。RAG(検索拡張生成)パイプラインの構築に特化した設計で、データ取り込み・インデックス作成・クエリエンジン・エージェントまでをカバーします。LangChainと並ぶLLMアプリ開発の主要ライブラリとして、特にデータ中心のユースケースで高い採用率を誇ります。
コアアーキテクチャとして、(1)Data Connectors(Llamahub):PDF・Web・Notion・Slack・Confluence・Salesforce・データベース等100種以上のデータソースからデータを取り込むコネクタライブラリ。llamahub.aiで管理・公開、(2)Document Stores / Index Stores:取り込んだドキュメントをチャンク分割・エンベディング化してベクターDB・グラフDB・SQLに格納するインデックス管理、(3)Query Engine:インデックスに対する様々なクエリ戦略(ベクター検索・キーワード検索・ハイブリッド検索・グラフトラバーサル)を統一インターフェースで提供、(4)Response Synthesizer:検索結果をLLMに渡して最終回答を生成するコンポーネント。TreeSummarize・Refine・CompactAndRefine等の合成戦略を選択可能、(5)Agents:クエリエンジンやツールをエージェントのアクションとして登録し、マルチステップの情報収集・回答生成を実現があります。
高度な機能として、(1)サブクエリエンジン:複雑な質問を複数のサブクエリに分解して並行実行し結果を統合、(2)ルーターとセレクター:複数インデックスから最適なものを自動選択、(3)StructuredOutputParser:LLM出力をPydanticモデルに自動パース、(4)フラッシュカード等の評価ツール:RAGパイプラインの精度を自動評価するRagas統合があります。
LangChainとの使い分けとして、LlamaIndexはデータ接続・インデックス管理・RAG構築に特化しており、LangChainはより広いLLMアプリケーション全般(チェーン・エージェント・プロンプト管理等)をカバーします。両者は相互運用でき、LangChainのChain内でLlamaIndexのインデックスをツールとして利用することも可能です。
参考情報・出典
- ▸LlamaIndex Documentation— LlamaIndex(参照日: 2026-02-26)
- ▸LlamaIndex Official Website— LlamaIndex(参照日: 2026-02-26)