基礎概念

継続学習

けいぞくがくしゅう

一文定義

継続学習とは、新しいタスクを学習しても過去の知識を忘却しないようにモデルを継続的に更新する機械学習手法です。破滅的忘却(Catastrophic Forgetting)への対処が主要な課題です。

詳細解説

継続学習(Continual Learning / Lifelong Learning)とは、モデルが新しいタスクやデータを順次学習しながら、以前に学習した知識を忘れない(破滅的忘却を防ぐ)ための機械学習手法です。人間は過去の経験を保ちながら新しいことを学べますが、ニューラルネットワークは新しいデータで学習すると以前のパラメータが上書きされ、過去の性能が急激に低下する「破滅的忘却(Catastrophic Forgetting)」が起きます。

継続学習が重要な理由は、実世界のAIシステムでは新しい情報・タスクへの対応と既存機能の維持を両立させる必要があるためです。例えばチャットボットに新しいドメイン知識を追加学習させると、以前の会話能力が劣化するという問題が典型例です。

主な解決アプローチとして、Elastic Weight Consolidation(EWC、重要パラメータの変化を制約)、Progressive Networks(新タスク用に新列を追加)、Replay Methods(過去データのリプレイで忘却を防ぐ)、LoRAなどのPEFT手法(既存重みを固定しアダプタのみ追加)があります。LLMのfine-tuningでも継続学習の問題は顕在しており、新タスクへの適応と汎用性の保持のバランスが実装上の重要課題です。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る