実装

プロンプトチューニング

プロンプトチューニング

一文定義

プロンプトチューニングとは、モデルの重みを固定したまま、学習可能なソフトプロンプト(連続ベクトル)を入力の先頭に付加してタスクを適応させるPEFT手法です。人間が書く固定テキストのプロンプトと異なり、勾配で最適化されます。

詳細解説

プロンプトチューニング(Prompt Tuning)とは、大規模言語モデルのパラメータをすべて固定したまま、入力の先頭に付加する「ソフトプロンプト」(人間が読めない学習可能なベクトル列)だけをバックプロパゲーションで最適化するパラメータ効率的な適応手法です。Lesterらが2021年に発表しました。

プロンプトチューニングが重要な理由は、数十億パラメータのLLMを特定タスクに適応させる際に、モデル重みを一切変更せず少数の「ソフトプロンプトトークン」の学習だけで高い性能を達成できるためです。モデルを共有しながら複数タスク向けの異なるソフトプロンプトを切り替える使い方ができ、マルチテナント環境に適しています。

手動のprompt-engineeringとの違いは、人間が読めるテキストではなく連続ベクトル空間で最適化される点です。PrefixTuning(各Transformer層にプレフィックスを付加する亜種)と合わせてpeftの代表的手法の一つです。モデルが大きいほどプロンプトチューニングの効果が高く、100Bスケールではフルfine-tuningに近い性能を達成することが示されています。ただしloraと比較すると適応できるタスクの幅が狭いとされており、実務ではLoRAが多く採用されています。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る