一文定義
ニューラルネットワークの学習アルゴリズム。出力誤差を後ろから前へ連鎖律で伝播させ各層の勾配を効率的に計算する。
詳細解説
誤差逆伝播法(Backpropagation、バックプロパゲーション)とは、ニューラルネットワークの学習に用いられる勾配計算アルゴリズムです。損失関数の値を各層の重みパラメータで微分した偏微分(勾配)を、出力層から入力層に向かって連鎖律(Chain Rule)を用いて効率的に計算します。1986年にRumelhart・Hinton・Williamsらが発表し、ニューラルネットワーク研究を再活性化させた重要な成果です。
アルゴリズムの流れは、(1)フォワードパス:入力データをネットワークに流して予測値と損失を計算、(2)バックワードパス:損失を出力層から入力層に向かって逆方向に伝播させ、各重みの勾配を連鎖律で計算、(3)パラメータ更新:勾配降下法で各重みを更新、というサイクルを繰り返します。
現代の深層学習フレームワーク(PyTorch・TensorFlow)は自動微分(Autograd)機能により、誤差逆伝播法を自動的に実行します。研究者・開発者はバックプロパゲーションの実装を手書きせずに済み、任意のネットワーク構造に対して自動で勾配計算が行われます。
勾配消失問題(深いネットワークで勾配が0に近づく問題)と勾配爆発問題(逆に勾配が発散する問題)がバックプロパゲーションの主な課題であり、ReLU活性化関数・バッチ正規化・残差接続(ResNet)などの手法で対処されています。
参考情報・出典
- ▸Learning representations by back-propagating errors— Nature / Rumelhart et al. (1986)(参照日: 2026-02-26)
- ▸Backpropagation – Wikipedia— Wikipedia(参照日: 2026-02-26)