──AI電力クライシスと「世界AI選手権」の終わり方
AIの電力問題をめぐる議論で、ここ最近よく聞く言葉がある。
「光演算は、AI電力クライシスの救世主だ」。
確かに、数字だけを見れば夢はある。
演算あたりの消費エネルギーは1/20、
処理速度は100倍、
単位電力あたりの性能は2000倍──
そう聞けば、誰だって期待する。
だが結論から言えば、光演算は救世主にはなり得ない。
理由は単純で、間に合わないからだ。
今そこにある危機は、GPU世代の危機だ
現在のAI電力クライシスは、
「未来の計算機がどうなるか」という話ではない。
- いま稼働しているGPU
- いま建設されているデータセンター
- いま逼迫している送電網
これらはすべて現行アーキテクチャの延長線上にある。
光演算は、
研究 → 実装 → 量産 → DC導入
という長い時間軸を必要とする。
正しくても、遅い。
それだけで、短期的な解決策の資格を失う。
そもそも電力を食っているのは演算ではない
もうひとつの現実は、より冷酷だ。
現代のAIアクセラレータでは、
- 演算(FLOPs)はすでに軽い
- 電力を食っているのはメモリとデータ移動
HBMは帯域を稼ぐために電力を消費し、
I/Oと同期がシステム全体を縛っている。
演算を光で高速化しても、
メモリが等速で進化しなければ100倍は成立しない。
これは技術論ではなく、物理だ。
光演算の本当の価値は「未来側」にある
だからといって、光演算が無意味という話ではない。
光演算が本当に意味を持つのは、
- 演算とメモリが一体化する世界
- 値を運ばず、状態として保持し、干渉で計算する世界
つまり、現行GPUの延長ではない計算機においてだ。
だがその世界は、
今の電力クライシスを救うための世界ではない。
次のクライシスを起こさないための世界である。
では、今を救うのは何か
答えは派手ではない。
- モデル縮小
- 蒸留
- 用途特化
- 推論回数の削減
そして何より重要なのは、
過剰品質をやめることだ。
いまのGPTクラスのモデルは、
日常用途に対して明らかにオーバースペックだ。
これは実用のためではない。
世界AI選手権で勝つための設計だ。
F1と市販車は、同じである必要はない
選手権はなくならない。
フロンティアモデルもなくならない。
だが、それはF1であって、市販車ではない。
AIはいま、ようやくこの区別を受け入れる段階に来ている。
- フロンティア:性能競争・象徴・研究用
- 市販モデル:燃費・コスト・信頼性重視
AIが近々、用途特化のスモールモデルにフォークするのは、
敗北ではない。成熟だ。
結論
光演算は、AI電力クライシスの救世主ではない。
だが、その次の世界を成立させる前提条件ではある。
今そこにある危機を救うのは、
未来の魔法ではなく、
サイズを知る勇気だ。
世界AI選手権は続く。
だが、市販車は別の道を走り始める。
それで、誰も困らない。



