基礎概念

パラメーター

パラメーター

一文定義

パラメーターとは、ニューラルネットワークが学習によって調整する内部変数(重みとバイアス)の総称で、モデルの規模はB(十億)やT(兆)の単位で表します。

詳細解説

パラメーター(Parameter)とは、ニューラルネットワークを構成する重み(Weight)とバイアス(Bias)の総称で、学習プロセスを通じてデータから最適な値に調整されます。LLMではこのパラメーター数がモデルの「規模」を示す指標として広く使われます。

パラメーター数が重要な理由は、一般的にパラメーター数が多いほどモデルの表現力が高く、複雑なタスクをこなせる傾向があるためです。GPT-3は約1750億(175B)パラメーター、GPT-4は推定1兆(1T)超とされ、Metaのオープンソースモデル「Llama」シリーズでは7B・13B・70Bなど複数サイズが公開されています。

ただし、パラメーター数が多ければ必ずしも優れているわけではありません。量子化(Quantization)やLoRAなどの手法により、少ないパラメーターでも高い性能を発揮するモデルが登場しており、推論コストやメモリ効率との兼ね合いで適切なモデルサイズを選ぶことが実務上重要です。B(Billion:十億)やT(Trillion:兆)の単位でパラメーター数を表記するのが一般的です。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る