一文定義
継続学習とは、新しいタスクを学習しても過去の知識を忘却しないようにモデルを継続的に更新する機械学習手法です。破滅的忘却(Catastrophic Forgetting)への対処が主要な課題です。
詳細解説
継続学習(Continual Learning / Lifelong Learning)とは、モデルが新しいタスクやデータを順次学習しながら、以前に学習した知識を忘れない(破滅的忘却を防ぐ)ための機械学習手法です。人間は過去の経験を保ちながら新しいことを学べますが、ニューラルネットワークは新しいデータで学習すると以前のパラメータが上書きされ、過去の性能が急激に低下する「破滅的忘却(Catastrophic Forgetting)」が起きます。
継続学習が重要な理由は、実世界のAIシステムでは新しい情報・タスクへの対応と既存機能の維持を両立させる必要があるためです。例えばチャットボットに新しいドメイン知識を追加学習させると、以前の会話能力が劣化するという問題が典型例です。
主な解決アプローチとして、Elastic Weight Consolidation(EWC、重要パラメータの変化を制約)、Progressive Networks(新タスク用に新列を追加)、Replay Methods(過去データのリプレイで忘却を防ぐ)、LoRAなどのPEFT手法(既存重みを固定しアダプタのみ追加)があります。LLMのfine-tuningでも継続学習の問題は顕在しており、新タスクへの適応と汎用性の保持のバランスが実装上の重要課題です。
参考情報・出典
- ▸Overcoming catastrophic forgetting in neural networks— arXiv / Kirkpatrick et al. (2017)(参照日: 2026-02-26)
- ▸Continual learning - Wikipedia— Wikipedia(参照日: 2026-02-26)