基礎概念

GPU(グラフィックス処理ユニット)

ジーピーユー

一文定義

GPUとは、大規模な並列計算を高速処理するプロセッサで、LLMの学習・推論に不可欠なハードウェアです。NVIDIAのH100・A100シリーズがAI開発の標準的なインフラとなっています。

詳細解説

GPU(Graphics Processing Unit:グラフィックス処理ユニット)とは、元来3Dグラフィックスのレンダリング向けに設計された演算装置ですが、大規模な並列行列計算が得意という特性からディープラーニング・LLMの学習・推論に不可欠なハードウェアとなっています。

GPUがAIに欠かせない理由は、ニューラルネットワークの計算(行列積)を数千〜数万のコアで並列処理できるためです。CPUが数十コアで汎用計算を処理するのに対し、GPUは単純な計算を膨大な数のコアで同時実行します。これによりLLMの学習時間を劇的に短縮できます。

NVIDIAのH100(HBM3メモリ80GB)やA100(80GB)がAI研究・商用クラウドの標準インフラとなっており、クラウドプロバイダー(AWS・Google Cloud・Azure)がGPUインスタンスを提供しています。また量子化(Quantization)技術の進化により、コンシューマー向けGPU(RTX 4090等)でも小〜中規模のLLMを動かせるようになっています。GPUへのアクセスコストがAI開発の競争力を左右する要因の一つとなっています。

参考情報・出典

最終更新: 2026-02-26← 用語集一覧へ

AIスキルだけでなく、自分と未来を再設計する

生成AI活用力を体系的に習得し、自己理解・キャリアデザインを深め、志を同じくする仲間と共に学ぶ場がここにあります。

AIリブートアカデミーを見る