基礎概念

RoPE(回転位置埋め込み)

ロープ(かいてんいちうめこみ)

一文定義

RoPEとは、トランスフォーマーの位置情報をクエリ・キーベクトルの回転として表現する手法で、Llama・Mistral・Gemmaなど主要LLMに採用され、長文対応のコンテキスト拡張にも活用されます。

詳細解説

RoPE(Rotary Position Embedding:回転位置埋め込み)とは、トランスフォーマーモデルにおけるトークンの位置情報を、アテンション計算のクエリとキーベクトルを複素数平面上で回転させることで表現する手法です。

従来の絶対位置埋め込み(APE)や相対位置埋め込みと比較して、RoPEは相対位置情報を自然に捉えられる数学的性質を持ちます。任意の2つのトークン間の位置差(相対距離)が、ドット積計算において回転角度の差として自動的に反映される仕組みです。

RoPEの最大の特徴は、学習時より長いシーケンスへの外挿(コンテキスト拡張)との相性が良い点です。YaRN・LongRoPE・ABFなどの拡張手法と組み合わせることで、4K〜8Kトークンで学習したモデルを32K〜100K以上のコンテキスト長に拡張できます。LlamaシリーズはすべてRoPEを採用しており、Mistral・Gemma・Qwenなど主要オープンソースLLMのデファクトスタンダードとなっています。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る