実装

アダプターチューニング

アダプターチューニング

一文定義

アダプターチューニングとは、トランスフォーマーの各層に小さなアダプターモジュールを挿入し、元のパラメータを固定したまま新タスクに適応させるPEFT手法で、LoRAと並ぶパラメータ効率的な転移学習技術です。

詳細解説

アダプターチューニング(Adapter Tuning)とは、事前学習済みトランスフォーマーの各層に小さなボトルネック構造のモジュール(アダプター)を挿入し、元のモデルパラメータを完全に固定したまま新しいタスクに特化させるファインチューニング手法です。

アダプターモジュールは、入力次元を小さな次元に圧縮する「ダウン射影」、非線形活性化、元の次元に戻す「アップ射影」という3層構造で、パラメータ数は元のモデルの数%程度です。Housley et al. (2019) が提案し、BERT時代のNLPタスク適応で広く採用されました。

LoRAとの違いは、アダプターは新しい層を挿入するのに対し、LoRAは既存の重み行列の更新を低ランク行列の積で近似する点です。アダプターチューニングは各タスク専用のアダプターを差し替えることで、1つのベースモデルから複数タスクを効率的にサービングできる利点があります。

実用面では、Hugging Face PEFTライブラリがアダプターチューニングをサポートしており、医療・法律・製造など特定ドメインへのLLM適応に利用されています。フルファインチューニングと比べストレージコストと計算コストを大幅に削減できます。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る