一文定義
基盤モデルとは、大規模データで事前学習された汎用AIモデルです。様々なタスクにfine-tuningまたはそのまま利用でき、LLMや画像生成モデルなどが代表例です。
詳細解説
基盤モデル(Foundation Model)とは、大規模なデータセットで事前学習(pretraining)された汎用的なAIモデルを指します。スタンフォード大学HAIが2021年に提唱した概念で、特定の用途に特化せず幅広いタスクに適用できる点が特徴です。
なぜ基盤モデルが重要かというと、従来は各タスクごとに専用モデルを一から学習していたのに対し、基盤モデルを起点にfine-tuningやプロンプト設計で多様なタスクに対応できるためです。開発コストの大幅な削減と、汎化性能の高さが評価されています。
代表的な基盤モデルとして、テキスト系ではGPT-4・Claude・Gemini・LLaMA、画像系ではStable Diffusion・DALL-E、マルチモーダル系ではGPT-4oなどがあります。企業はこれらの基盤モデルを自社データでfine-tuningし、専門特化型モデルを効率的に構築しています。
参考情報・出典
- ▸On the Opportunities and Risks of Foundation Models— arXiv / Stanford HAI(参照日: 2026-02-26)
- ▸Foundation model - Wikipedia— Wikipedia(参照日: 2026-02-26)
最終更新: 2026-02-26← 用語集一覧へ