一文定義
GPUとは、大規模な並列計算を高速処理するプロセッサで、LLMの学習・推論に不可欠なハードウェアです。NVIDIAのH100・A100シリーズがAI開発の標準的なインフラとなっています。
詳細解説
GPU(Graphics Processing Unit:グラフィックス処理ユニット)とは、元来3Dグラフィックスのレンダリング向けに設計された演算装置ですが、大規模な並列行列計算が得意という特性からディープラーニング・LLMの学習・推論に不可欠なハードウェアとなっています。
GPUがAIに欠かせない理由は、ニューラルネットワークの計算(行列積)を数千〜数万のコアで並列処理できるためです。CPUが数十コアで汎用計算を処理するのに対し、GPUは単純な計算を膨大な数のコアで同時実行します。これによりLLMの学習時間を劇的に短縮できます。
NVIDIAのH100(HBM3メモリ80GB)やA100(80GB)がAI研究・商用クラウドの標準インフラとなっており、クラウドプロバイダー(AWS・Google Cloud・Azure)がGPUインスタンスを提供しています。また量子化(Quantization)技術の進化により、コンシューマー向けGPU(RTX 4090等)でも小〜中規模のLLMを動かせるようになっています。GPUへのアクセスコストがAI開発の競争力を左右する要因の一つとなっています。
参考情報・出典
- ▸NVIDIA H100 GPU Architecture— NVIDIA(参照日: 2026-02-26)
- ▸Graphics processing unit - Wikipedia— Wikipedia(参照日: 2026-02-26)