- ◆ GPU(Graphics Processing Unit / グラフィックスプロセッサ)
- ◆ Shader(シェーダ) / Programmable Shader
- ◆ Vertex Shader / Pixel Shader
- ◆ DirectX / OpenGL / Vulkan
- ◆ GPGPU(General Purpose GPU)
- ◆ CUDA(Compute Unified Device Architecture)
- ◆ OpenCL(Open Computing Language)
- ◆ Tensor Core(テンソルコア)
- ◆ HPC(High Performance Computing)
- ◆ NPU(Neural Processing Unit)
- ◆ HBM(High Bandwidth Memory)
- ◆ NVLink / InfiniBand
- GPUの歴史シリーズ
◆ GPU(Graphics Processing Unit / グラフィックスプロセッサ)
本来は 3D描画専用 のチップ。
- 多数のコアが同時に計算できる(並列演算)
- CPUが苦手な「大量の計算」を高速に処理できる
3D を“描く装置”として誕生したが、
いまは AI を動かす計算装置 に進化した。
◆ Shader(シェーダ) / Programmable Shader
GPUに「光の当たり方・質感・色」をプログラムで指示する仕組み。
例:
- 金属の反射
- 水面のゆらぎ
- 肌の質感
シェーダの登場で、GPUは“固定機能”から“表現の自由”を得た。
◆ Vertex Shader / Pixel Shader
Shader の下位概念。
| 種類 | 役割 |
|---|---|
| Vertex Shader | 形状(頂点座標)を変える |
| Pixel Shader | 表面の質感・色・光を決める |
形を変えるのが Vertex、質感を決めるのが Pixel。
◆ DirectX / OpenGL / Vulkan
GPU を操作する API(ソフトウェアとGPUの翻訳者)。
| API | 特徴 | 主な支持者 |
|---|---|---|
| DirectX | OSに最適化・高速・ゲーム向け | Microsoft / Windows |
| OpenGL | マルチプラットフォーム・汎用 | UNIX / CAD / 研究用途 |
| Vulkan | DirectX と OpenGL の“いいとこ取り”、低レベル制御 | ハイエンドゲーム / 3Dエンジン |
Glide(3dfxの独自API)の消滅は DirectXの勝利 を意味した。
◆ GPGPU(General Purpose GPU)
GPUを「描画以外の計算」に使う技術。
- 科学シミュレーション
- 暗号解析
- AI
始まりは裏技(Shader abuse)だった。
それを正攻法に変えたのが CUDA。
◆ CUDA(Compute Unified Device Architecture)
NVIDIA が作った、GPUで計算するためのプログラミング環境。
- C / C++ / Python から GPU を叩ける
- AI研究者が最初に覚える“GPUの言語”
- 事実上 AI世界の標準
「CUDA が使えるか?」が、GPUの価値。
◆ OpenCL(Open Computing Language)
CUDA のライバル。
AMD / Apple / Intel / ARM が中心。
メリット:
- どのGPUでも動く
デメリット:
- 遅い、開発環境が貧弱、エコシステムが弱い
「オープン vs 独占」の戦いは、独占(CUDA)の勝利。
◆ Tensor Core(テンソルコア)
AI(深層学習)専用に設計されたGPUの中の演算ユニット。
- 行列計算(AIの主処理)が桁違いに高速
- FP32 ではなく FP16 / INT8 / FP8 を使用
Tensor Core の誕生で、GPU はAI の専用プロセッサになった。
◆ HPC(High Performance Computing)
科学計算・スパコン領域での GPU活用。
HPC 分野で GPU が使われる理由:
- 並列計算が速い
- コスト/性能比が圧倒的
「科学はCPUではなく GPU が回す時代」。
◆ NPU(Neural Processing Unit)
推論特化チップ。GPUより省電力。
- スマホ(Apple / Qualcomm / Google Tensor)
- Vision Pro / ARデバイス
- エッジ AI
学習は GPU、推論は NPU
という 分業 が進んでいる。
◆ HBM(High Bandwidth Memory)
GPUの性能はコア数ではない。HBMで決まる。
- 超広帯域のメモリ
- AIモデルの「読み込み速度」を決める
もはや GPU の心臓ではなく、HBM が心臓。
◆ NVLink / InfiniBand
複数 GPU を接続して 巨大な1つのGPUに見せる技術。
単体性能の時代は終わり、クラスタ性能の時代へ。












