一文定義
AI演算(行列計算・テンソル演算)に特化した半導体。NVIDIA GPU・Google TPU・Apple Neural Engine・Intel Gaudi等が代表例。
詳細解説
AIチップ(AI Chip、AI Accelerator)とは、機械学習・深層学習に必要な大規模な行列演算・テンソル演算を汎用CPUより高速・省電力で処理するために設計された専用半導体です。AIブームを背景に半導体産業の最重要分野となっており、AI覇権を巡る国際競争の焦点でもあります。
主要なAIチップの分類として、(1)GPU(NVIDIA H100・A100・RTX 4090など):並列演算能力が高くLLM訓練・推論の標準ハードウェア。CUDAエコシステムが業界標準として確立、(2)TPU(Google Tensor Processing Unit):Googleが自社開発した行列乗算専用チップ。Google Cloudでのみ利用可能だが訓練効率が非常に高い、(3)Apple Neural Engine:iPhone・MacのApple Siliconに内蔵される推論特化チップ。Core MLを使ったエッジAIに対応、(4)Intel Gaudi・AMD Instinct:NVIDIA GPU対抗の汎用AI学習チップ、(5)各社の独自ASIC(Tesla Dojo・Amazon Trainium/Inferentia)があります。
AIチップの性能指標として、FLOPS(浮動小数点演算性能)・TOPS(整数演算性能)・HBM帯域幅・TDP(熱設計電力)が重要です。LLM推論では演算性能よりメモリ帯域幅がボトルネックになるケースが多く、HBM(High Bandwidth Memory)の容量と速度がモデルの実行能力を決定します。
日本でもさくらインターネット・GMO等がNVIDIA GPU搭載クラウドの国内提供を拡大しており、経済産業省主導のAI半導体政策も進められています。
参考情報・出典
- ▸NVIDIA H100 Tensor Core GPU Architecture— NVIDIA(参照日: 2026-02-26)
- ▸AI chip – Wikipedia— Wikipedia(参照日: 2026-02-26)