基礎概念

アテンションメカニズム

アテンションメカニズム

一文定義

アテンションメカニズムとは、入力の各部分に重みを付けて重要な情報に集中する機構です。トランスフォーマーの中核技術であり、LLMが文脈を理解する基盤となっています。

詳細解説

アテンションメカニズム(Attention Mechanism)とは、ニューラルネットワークが入力データの各部分に対して「どこに注目するか」を動的に重み付けする仕組みです。2017年のVaswani et al.による論文「Attention Is All You Need」でSelf-Attentionが提案され、トランスフォーマーアーキテクチャの中核技術となりました。

仕組みを簡単に説明すると、入力トークンそれぞれが「クエリ(Q)」「キー(K)」「バリュー(V)」の3つのベクトルに変換され、QとKの類似度でアテンションスコア(重み)を計算します。このスコアに基づいてVを加重和することで、文脈に応じた表現を生成します。「自己注意(Self-Attention)」は同じ文内のトークン間の関係を捉え、「マルチヘッドアテンション」は複数の視点から並列に注目することで表現力を高めます。

アテンションメカニズムが重要な理由は、従来のRNNが苦手だった長距離依存関係(文の前後で意味が繋がる部分)を効率的に処理できる点です。これにより、LLMは長い文章でも文脈を保持した生成が可能になりました。現在のGPT・Claude・Geminiなど主要LLMはすべてアテンションメカニズムを基盤としています。

参考情報・出典

最終更新: 2026-02-25← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る