PyTorch 2.9リリース─パフォーマンスアップ+Wheel VariantサポートをROCm/XPU/CUDA 13に拡大

TECH

PyTorch 2.9 が静かに世界を変えはじめている。
それは新しい演算アルゴリズムでも派手なAIデモでもない。
もっと根の深い──「GPU覇権の構造そのもの」に触れる変化だ。

機械学習フレームワークの中核として、PyTorch は長らく
CUDA を前提とした NVIDIA のための抽象基盤」として設計され、
ユーザーも開発者も、その前提を常識として受け入れてきた。

AI を回すにはまず CUDA のバージョンを揃えろ。
PyTorch の wheel は自分の GPU に合っているか必ず確かめろ。
──おそらくここで苦闘しなかった ML エンジニアはいない。

だが PyTorch 2.9 は、ついにその “前提” に手を付けた。

Wheel Variant — GPU依存バイナリを自動で最適化可能な配布方式への変革。

インストールの段階で、
ROCm(AMD), XPU(Intel GPU), CUDA 13(NVIDIA),
そして ARM / x86 / Apple Silicon にまたがる CPU 実装──
その全てを “同列” として扱おうとする設計に踏み出したのだ。

これまで「PyTorch を GPU で動かしたい」と思った瞬間に
避けて通れなかったあの地雷原──
CUDA バージョンの地獄、pip / conda のパッケージねじれ、
wheel 探索の沼地。

それを「明文化された作業」から「気にしなくていい段階」へ
すなわち、一段下のレイヤーに押し下げようとしている。


なぜこれが重い意味を持つのか。

この一手は単なる利便性向上ではない。
AI の標準ハードウェア覇権に対する
PyTorch(≒META + AWS + Microsoft + NVIDIA + Intel + AMD)連合からの
“構造的カウンター” である可能性があるからだ。

PyTorch はすでに CUDA の従属物ではなくなりつつある。
むしろ CUDA にロックインされない PyTorch
──これが 2.9 の奥底にある思想だ。

そして NVIDIA に挑むのは「性能」ではない。
「インストールの障壁」──その最も基盤的なユーザー接触点だ。

PyTorch 2.9 の本質は「速度」ではない。
むしろ 「GPU × OS × Python × Driver の組み合わせ」という “地獄の四次元パズル” を、PyTorch 自身が責任をもって吸収しようとし始めた という点にある。

これが Wheel Variant の真の意味だ。

これまで私たちは――

PyTorch を入れようとする
→ CUDA のバージョンを調べる
→ nvidia-smi で互換性を確認
→ pip の index-url を自分で指定
→ あってそうな wheel を “手で選んで” install
→ よく落ちる

という “GPU ユーザーなら誰もが通ってきた闇” を、
「仕方のない通過儀礼」だと諦めてきた。

PyTorch 2.9 は、ついにその“前提”を否定した。

「AIの開発環境構築は、ここまで不自然である必要があるのか?」

という根源的な問いに対して
フレームワーク自体が “No” と言い始めた――
それが今回のリリースである。


ここで決定的に重要なのは、
これは AMD や Intel の “要望に応えた改善” ではない、という点だ。

PyTorch が自らの未来を NVIDIA 依存から解放するための一手 である。
NVIDIA の支配構造に屈服しながら進化を続けるのではなく、
「どの GPU であろうと PyTorch は PyTorchとして動く」世界へ向かう
その意思表明に近い。

この “Wheel Variant” の拡大は、
単なる質的改善ではなく
“方向性を変えた最初の足音”
である。

AI 計算インフラの主導権が、
ハードウェアからソフトウェアスタックに回帰しようとしている 兆候。

PyTorch 2.9 は、まさにその “はじまり” なのだ。

PyTorch 2.9 のニュースを
「最適化」「対応拡大」「高速化」
とだけ要約してしまうのは、あまりにももったいない。

これはもっと根元的な問いへの回答だ。

AI 計算は NVIDIA の CUDA の上でしか
 “まともに” 成立しない時代でいいのか?

この問題を、
PyTorch 自身が “なかったことにしようとしている” ──
それが今回の本質だ。

Wheel Variant はまだ “実験機能” に過ぎない。
FlexAttention も symmetric memory も、まだ荒削りだ。
だが──

「方向性」だけは明らかに変わった。

NVIDIA の CUDA への従属から、
“PyTorch が世界の GPU を選ばない” という構造へ。

たとえば 3 年後、
「PyTorch を入れると GPU / OS / Driver / Wheel variant まで含めて
最適な実行スタックが自動で組まれる」のが当たり前になったら。
そのとき CUDA 一強という言葉は、もう過去形 で語られているだろう。


PyTorch 2.9 は “終わり” ではない。これは “反撃の一歩目” だ。

それは毎秒 10 万トークンの性能でもなく、
人間の声色を再現する対話AIの派手さでもない。

もっと静かな、しかし圧倒的に深い “根の変化”。

私たちは今、その兆候を
PyTorch 2.9 の中に確かに見ている。


PyTorch 2.9 Release Blog – PyTorch