実装

LoRA(低ランク適応)

ローラ(ていランクてきおう)

一文定義

LoRAとは、大規模モデルの重みを直接更新せず、追加した低ランク行列のみを学習することで、少ないメモリ・コストでファインチューニングを実現する手法です。

詳細解説

LoRA(Low-Rank Adaptation:低ランク適応)とは、事前学習済みモデルの重み行列を凍結(固定)したうえで、各行列に小さな低ランク行列のペア(A・B)を追加し、そのA・Bのみを学習するパラメータ効率的なファインチューニング手法です。2021年にMicrosoftの研究チームが提案しました。

なぜLoRAが広く使われるかというと、LLMのフルファインチューニングは数百GBのVRAMを必要とする一方、LoRAは学習するパラメータを大幅に削減(1%以下)するため、一般的なGPU(24GB以下)でも実用的なファインチューニングが可能になるためです。

また、学習済みのLoRAアダプターを交換することで、同じベースモデルに複数のLoRAを切り替えて使うことができます。QLoRA(量子化+LoRA)と組み合わせるとさらに消費メモリを削減できます。オープンソースモデル(LLaMAなど)のカスタマイズで特に普及しています。

参考情報・出典

最終更新: 2026-02-25← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る