一文定義
推論とは、学習済みのAIモデルが新しい入力データに対して出力を生成するプロセスです。AIの「実際に使う段階」を指し、学習(トレーニング)とは区別されます。
詳細解説
推論(Inference)とは、学習(Training)が完了したAIモデルに新しい入力(プロンプトなど)を与え、出力(回答・予測・生成結果)を得るプロセスを指します。ユーザーがChatGPTやClaudeに質問したとき、バックグラウンドで行われているのがこの「推論」です。
学習と推論を区別する重要性は、コストの性質が異なるためです。学習は大量のGPUを長時間使い多大なコストがかかりますが(数億〜数百億円規模)、推論は学習済みモデルを使うだけなので比較的安価です。ただし、大規模サービスでは推論コストが積み上がるため、効率化(量子化・推論最適化)が重要な課題になります。
近年、「推論モデル(Reasoning Model)」という用語も登場しており、OpenAI o1/o3などのように回答前に内部でCoT(Chain of Thought)を自動実行して精度を高めるモデルを指す文脈でも「推論」という言葉が使われます。
参考情報・出典
- ▸Inference - Machine Learning Glossary - Google Developers— Google Developers(参照日: 2026-02-25)
- ▸Model Inference - NVIDIA Documentation— NVIDIA(参照日: 2026-02-25)
最終更新: 2026-02-25← 用語集一覧へ