実装

プレフィックスチューニング

プレフィックスチューニング

一文定義

プレフィックスチューニングとは、学習可能な連続ベクトル(プレフィックス)をトランスフォーマーの各層に追加してタスク適応するパラメータ効率的な手法で、LoRA登場前に主流だったPEFT手法のひとつです。

詳細解説

プレフィックスチューニング(Prefix-Tuning)とは、事前学習済みLLMのパラメータを凍結したまま、各トランスフォーマー層の先頭に「学習可能な連続ベクトル(プレフィックス)」を追加し、タスク固有の適応を行うパラメータ効率的ファインチューニング(PEFT)手法です。2021年にStanfordのXiang Lisa Li・Percy Liangが提案しました。

**通常のファインチューニングとの比較:**

| 手法 | 更新パラメータ | モデルコピー | 推論コスト | |------|--------------|-----------|----------| | フルファインチューニング | 全パラメータ(100%) | タスク毎に必要 | 通常 | | プレフィックスチューニング | プレフィックスのみ(0.1%程度) | 共有 | プレフィックス長分増加 | | LoRA | 低ランク行列(0.1〜1%) | 共有 | ほぼ変わらず |

**仕組み:** 各トランスフォーマー層のアテンション計算時に、実際の入力トークン系列の前に「仮想トークン」(プレフィックス)を付加します。このプレフィックスのベクトル値のみを学習し、モデル本体は変更しません。

``` 通常:[入力トークン列] → トランスフォーマー層 → 出力 プレフィックスチューニング:[プレフィックスベクトル] + [入力トークン列] → 同じ層 → 出力 ```

**PromptチューニングとLoRAとの違い:** - **ソフトプロンプト(Prompt Tuning)**:入力層のみにプレフィックス。最もシンプル - **プレフィックスチューニング**:全層にプレフィックスを追加。より高い表現力 - **LoRA**:重み行列に低ランク分解行列を追加。現在最も主流なPEFT手法

**現在の位置づけ:** LoRAの登場(2022年)以降、実用面ではLoRAが主流となりましたが、プレフィックスチューニングはPEFTの理論的理解において重要な位置を占めており、さまざまなPEFT手法の比較研究で基準手法として引用されます。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る