実装

LlamaIndex

ラマインデックス

一文定義

LLMとデータを接続するためのデータフレームワーク。RAGパイプライン・エージェント・データコネクタの構築に特化しLangChainと並ぶ主要ライブラリ。

詳細解説

LlamaIndex(旧称GPT Index)とは、LLM(大規模言語モデル)を外部データと効率的に接続するためのPythonデータフレームワークです。RAG(検索拡張生成)パイプラインの構築に特化した設計で、データ取り込み・インデックス作成・クエリエンジン・エージェントまでをカバーします。LangChainと並ぶLLMアプリ開発の主要ライブラリとして、特にデータ中心のユースケースで高い採用率を誇ります。

コアアーキテクチャとして、(1)Data Connectors(Llamahub):PDF・Web・Notion・Slack・Confluence・Salesforce・データベース等100種以上のデータソースからデータを取り込むコネクタライブラリ。llamahub.aiで管理・公開、(2)Document Stores / Index Stores:取り込んだドキュメントをチャンク分割・エンベディング化してベクターDB・グラフDB・SQLに格納するインデックス管理、(3)Query Engine:インデックスに対する様々なクエリ戦略(ベクター検索・キーワード検索・ハイブリッド検索・グラフトラバーサル)を統一インターフェースで提供、(4)Response Synthesizer:検索結果をLLMに渡して最終回答を生成するコンポーネント。TreeSummarize・Refine・CompactAndRefine等の合成戦略を選択可能、(5)Agents:クエリエンジンやツールをエージェントのアクションとして登録し、マルチステップの情報収集・回答生成を実現があります。

高度な機能として、(1)サブクエリエンジン:複雑な質問を複数のサブクエリに分解して並行実行し結果を統合、(2)ルーターとセレクター:複数インデックスから最適なものを自動選択、(3)StructuredOutputParser:LLM出力をPydanticモデルに自動パース、(4)フラッシュカード等の評価ツール:RAGパイプラインの精度を自動評価するRagas統合があります。

LangChainとの使い分けとして、LlamaIndexはデータ接続・インデックス管理・RAG構築に特化しており、LangChainはより広いLLMアプリケーション全般(チェーン・エージェント・プロンプト管理等)をカバーします。両者は相互運用でき、LangChainのChain内でLlamaIndexのインデックスをツールとして利用することも可能です。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る