人工知能は、人間が作った最後の“発明”かもしれない。
しかし、その AI を生み出したのは GPUだった。
◆ “CPUでは不可能だった AI” を GPU が可能にした
2012年、深層学習(Deep Learning)は冬の時代だった。
研究は存在したが、実験ができない。
- 学習に 数週間〜数ヶ月
- 膨大なデータが処理できない
- 研究費が天井に達する
「理論はある。だが計算できない。」
そこに GPU が現れた。
AlexNet(2012)
ImageNet コンペで、誤差率を10%以上も一気に更新。
使われたのは NVIDIA GeForce GTX 580(一般向けGPU)。
AI の進化は、GPUを使った瞬間に始まった。
CPU だと数週間かかった学習が、
GPUだと数日になった。
CPU → 不可能
GPU → 現実
◆ AI研究者たちは「GPUが欲しい」から NVIDIA に集まった
AI研究者あるある:
「研究費=GPUを買うお金」
なぜ NVIDIA 一択になったのか?
| 要素 | NVIDIA | AMD |
|---|---|---|
| CUDA(開発環境) | 最強・シェア独占 | OpenCL(断片化) |
| ライブラリ / 学習フレームワーク | CUDA前提で最適化 | 少ない |
| 論文・学会 | CUDAコードが標準語 | 誰も使わない |
CUDA を学ぶ = AI を研究する
という関係性ができてしまった。
AI研究者にとって、GPUではなくCUDAが必須になった。
◆ AIが GPU を変えた ─ Tensor Core の誕生
ディープラーニングが求めたのは
- 高速な行列演算(Matrix Multiply)
- FP32 より軽い精度(FP16 / INT8)
- 巨大モデルの高速学習
NVIDIAはアーキテクチャを AI 向けに作り変えた。
そして誕生したのが:
Tensor Core(Volta / 2017)
Tensor Core は AI のための専用ユニット。
| 精度 | 用途 |
|---|---|
| FP32 | 高精度計算(従来GPU) |
| FP16 / INT8 | 深層学習(Tensor Core) |
GPU が AI に最適化され、
AI が GPU を進化させた。
◆ 模型は完成した:GPU → AI → GPU
進化のサイクルが回り始める。
AI には計算力(GPU)が必要
↓
AI が GPU を要求して進化する
↓
GPU が AI 専用設計へ変わる(Tensor Core)
AI が GPU を設計する時代 に入った。
◆ AIが求めたのは「速さ」ではなく「回せる規模」
AI は GPU を “性能” で評価しない。
「この GPU で どれだけ大きなモデル が回るか?」
LLaMA、GPT、Gemini…
大規模モデル(LLM) が主役になり、
- メモリ容量(HBM)
- ノード間通信(NVLink / InfiniBand)
- スケーラビリティ(マルチGPU / マルチノード)
が重要になった。
GPU は単体性能より クラスタ性能 で語られるようになる。
◆ 第7章の結論
GPUが AI を動かし、
AI が GPU を作り変えた。
GPU の進化曲線:
描画 → 表現 → 計算 → AI
AI の進化曲線:
理論 → 実験 → 実用 → GPU依存
そして、2020年代。
GPU は ただの計算装置 ではなく:
文明の知性を育てる器 になった。
▶ 次の章へ進む: 第8章:サステナビリティとハイブリッド化 ─ 電力を制する者がGPUを制する

