基礎概念

損失関数

そんしつかんすう

一文定義

モデルの予測値と正解値のズレを数値化する関数。学習の目標(最小化すべき値)を定義し、勾配降下法で最適化する。

詳細解説

損失関数(Loss Function)とは、機械学習モデルが出力した予測値と正解値(教師ラベル)のズレを数値で表す関数です。学習の目的は「損失関数の値を最小化するモデルパラメータを求めること」であり、勾配降下法と誤差逆伝播法を組み合わせて最適化が行われます。コスト関数・目的関数とも呼ばれます。

代表的な損失関数として、(1)平均二乗誤差(MSE):回帰タスクで広く使われ、予測値と正解値の差の二乗平均を計算、(2)クロスエントロピー損失(Cross-Entropy Loss):分類タスクの標準で、確率分布の乖離を測定、(3)バイナリクロスエントロピー:2値分類専用、(4)KLダイバージェンス:確率分布間の距離を測定し、変分オートエンコーダーや知識蒸留で利用されます。

LLMの学習においては、次のトークンを予測するタスクのクロスエントロピー損失が主に使われます。パープレキシティ(Perplexity)はこの損失を指数変換したもので、言語モデルの評価指標として広く使われています。

損失関数の選択はタスクの性質に依存します。回帰問題にはMSE・MAE、分類問題にはクロスエントロピー、生成モデルにはELBOなど、問題設定に合わせた適切な損失関数の設計がモデルの収束速度・最終性能に大きく影響します。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る