OpenAI専用チップ時代の幕開け ─ GRAPEからCUDA、そして電力効率競争へ

OpenAI専用チップ時代の幕開け ─ GRAPEからCUDA、そして電力効率競争へ TECH

専用チップ時代の到来

生成AIの爆発的な普及は、ハードウェアの世界地図を大きく塗り替えつつある。かつては「GPUさえあればAIは回る」と信じられていた時代が続いたが、その構図は急速に変わりつつある。いまや主要なLLMメーカーが、こぞって専用プロセッサの開発に踏み出しているのだ。

まず先陣を切ったのはGoogleだ。独自開発のTPU(Tensor Processing Unit)は2016年に初代が登場し、以後はTPUv5pに至るまで進化を遂げてきた。Googleはこれを自社のサービス群はもちろん、Google Cloudの武器として提供しており、「AIを回すにはGoogleのTPUが最適」というメッセージを市場に発している。

Amazonもまた専用チップに踏み切った。推論専用のInferentia、学習向けのTrainiumをAWS上で展開し、クラウド利用者に「NVIDIA GPU以外の選択肢」を提示している。ECからクラウドまでを押さえる巨大プラットフォーマーにとって、ハードの独立は利益構造を守る防衛戦でもある。

Metaはソーシャルメディア企業の枠を越え、独自AI開発を加速させるなかでMTIA(Meta Training and Inference Accelerator)を構想。彼らが抱える膨大な利用者規模を考えれば、推論効率の改善は死活的課題であり、専用チップ開発は必然だった。

さらにMicrosoftもAthenaと呼ばれる独自アクセラレータを発表している。Azureを軸にしたAIクラウド事業を推進するうえで、GPUの価格高騰や供給制約を座視することはできなかったからだ。Microsoftは同時にCPUの自社開発(Cobalt)にも踏み込み、クラウド基盤をまるごと内製化へと舵を切り始めている。

そして2025年、Broadcomが「匿名の大口顧客」から100億ドル規模のAIチップ契約を獲得したとのニュースが走った。出荷時期は2026年とされ、対象は推論用の専用プロセッサと見られている。業界関係者の大半が「その顧客はOpenAIに違いない」と受け止め、実質的にはOpenAIが独自の専用チップ導入に踏み切ったという認識が広がっている。

こうして俯瞰してみると、もはや例外は存在しない。Google、Amazon、Meta、Microsoft、そしてOpenAI──主要プレイヤー全員が専用チップを手にした。これは単なる技術選択ではなく、産業構造そのものの大転換点である。GPU万能時代の幕が閉じ、専用プロセッサ時代の扉が大きく開かれたのである。

GPU一強時代とその限界

AIの発展をここまで押し上げた立役者を一つ挙げるとすれば、それは疑いなくGPUである。もともとは画像処理のための部品にすぎなかったが、その並列演算性能に目をつけた研究者たちが汎用計算に応用し、やがて深層学習の爆発的な進歩を支える基盤となった。

決定的だったのは2006年に登場したNVIDIAのCUDAである。プログラマーがC言語に近い形でGPUを直接制御できるようになり、大学の研究室やスタートアップが「とりあえずNVIDIAのGPUを使えばAIが動く」という環境を手にした。ハードとソフトの垣根を崩したCUDAは、GPUを単なるグラフィックボードから「科学計算の主役」へと押し上げたのである。

その後、2012年のImageNetコンペでディープラーニングが圧倒的勝利を収めると、GPUの需要は爆発した。研究者から産業界へと利用が広がり、クラウド事業者も次々にGPUサーバーを導入。AIの成長曲線とNVIDIAの株価曲線は、ほとんど重なるように上昇を描いていった。

だが「万能」に見えたGPUにも限界はある。まずコストだ。最新世代のH100やB200といったハイエンドGPUは1枚で数万ドルに達し、数千枚単位で必要となる大規模クラスタでは天文学的な投資を強いられる。次に電力効率。汎用性を重視した設計のため、推論処理を大量にこなす用途では、専用チップに比べて電力あたり性能が劣る。

さらに、データセンター側の事情も深刻だ。GPUクラスタは莫大な電力を消費し、冷却や設置スペースにも大きな負担を与える。各国で「AIデータセンターが電力網を逼迫する」と懸念が高まっており、効率性の高い専用チップに移行する動機は日に日に強まっている。

技術的にも「GPU万能論」には揺らぎがある。GPUは行列積や畳み込み演算に強い一方で、AIモデルの規模拡大に伴いメモリ帯域や通信速度がボトルネックとなる。NVLinkやInfiniBandで高速化を図ってきたものの、設計全体をAI専用に最適化したチップの方が有利なのは明白になりつつある。

とはいえ、GPUが不要になるわけではない。研究段階でアルゴリズムを試行錯誤し、新しいモデルを学習させるフェーズでは、柔軟性に富むGPUが依然として不可欠だ。つまりGPUは「AIを生み出す畑」として生き残るが、「AIを大量に配る物流網」の役割は、専用チップに置き換わっていく

こうして見れば、GPU一強時代は確かにAIの黄金期を築いたが、その輝きは永遠ではない。万能ゆえに抱え込んだ非効率が、次の専用チップ時代の扉を押し開けつつあるのだ。

専用チップの合理性

なぜ、各社がこぞってGPUから専用チップへと舵を切るのか。その背景には、単なる「流行」ではなく、極めて合理的な理由がある。

学習と推論の需要構造の違い

AI処理には大きく分けて「学習」と「推論」の二つがある。学習は新しいモデルを育てるために膨大な計算を一度に投じる工程であり、頻度は低い。ChatGPTクラスの巨大モデルであっても、年に数回の再学習で済む。いわば「ドカンと一度」の需要だ。

一方の推論は、完成したモデルを使って日々ユーザーのリクエストに応答する工程である。こちらは止まることなく連続的に発生する。ChatGPTに入力される数十億単位の質問、SNSでの画像生成、広告配信の最適化──その大半は推論処理で占められる。つまり、AIの需要の大部分は推論が担っているのだ。

電力効率とスケーラビリティ

推論が需要の中心である以上、そこでの効率がサービス全体のコスト構造を決める。GPUは汎用性が高い代わりに、電力効率では専用チップに劣る。GoogleのTPUやAmazonのInferentiaは、GPUと同等の処理をより少ない電力でこなせる設計になっており、データセンターの電力負荷を大幅に抑える。世界中で電力クライシスが現実味を帯びるなか、電力効率の改善は技術的要請であると同時に社会的使命でもある

経済性と主導権

もう一つの理由は経済性だ。クラウド事業者やAI企業は、GPUを調達するたびにNVIDIAに巨額の支払いをしてきた。NVIDIAの時価総額が世界一に躍り出たのは、その「GPU税」が積み上がった結果である。専用チップを持てば、そのマージンを自社に取り戻せる。さらに、自社のクラウド基盤に深く最適化されたハードを持つことは、競合との差別化にも直結する。

政治・地政学的要素

専用チップにはもう一つ重要な意味がある。NVIDIAやTSMCといった外部サプライチェーンへの依存を軽減できる点だ。AIが国家戦略の中核に位置づけられる今、供給リスクを抱えたままでは安心して事業を進められない。だからこそ米政府はCHIPS Actを推進し、企業も自社チップ開発へと踏み出している。


結局のところ、専用チップは「効率」「コスト」「主導権」の三拍子を揃えた合理的解決策だ。
学習の畑を耕すのはGPUだとしても、推論という大河を支えるには専用チップの船団が必要になる。OpenAIや各社が専用化へ進むのは、必然の帰結にほかならない。

歴史的な前例:GRAPEプロジェクト

AI専用チップの登場は、決して新しい発想ではない。専用化の思想は、30年以上前の日本でもすでに実証されていた。その象徴が、東京大学を中心に展開されたGRAPEプロジェクトである。

重力専用計算機という発想

1980年代後半、天文学者たちは「N体問題」という壁に直面していた。星や銀河といった多数の天体が相互に及ぼし合う重力を正確に計算するには、膨大な演算が必要になる。当時のスーパーコンピュータでは、現実的な規模でのシミュレーションはほぼ不可能だった。

そこで東大の研究者たちは発想を転換する。すべてを汎用計算機に任せるのではなく、重力計算に特化した専用チップを作ればいい──これがGRAPE(GRAvity PipEline)の出発点だった。

世界初のテラフロップス計算機

1995年に完成したGRAPE-4は、その思想の結晶だった。重力演算に特化したパイプラインLSIを多数並べ、従来のスーパーコンピュータを凌駕する速度を実現。理論性能で1.08テラフロップスを叩き出し、当時としては世界最速の計算機となった。これは「専用化が汎用を超える」ことを実際に証明した画期的成果である。

さらに2002年のGRAPE-6は、63テラフロップスという当時として破格の性能を発揮。銀河の形成シミュレーションや宇宙論研究に大きな貢献を果たした。

電力効率の証明

GRAPEの功績は性能だけにとどまらない。2007年、GRAPE-DRはスーパーコンピュータの省電力性能ランキング「Little Green 500」で世界1位を獲得した。これは単なる高速計算機ではなく、専用アクセラレータが電力効率を飛躍的に高めることを示す国際的な評価だった。

この事実は、現在のAIが抱える最大の課題──推論時の膨大な電力消費──と見事に符合する。もしAI専用チップがGRAPEのように効率性を徹底的に追求できるなら、電力危機を和らげ、人類全体の持続可能性に貢献できる可能性がある

AI専用チップとの共通点

GRAPEが挑んだ「重力相互作用の繰り返し演算」と、AI推論で行われる「行列積や注意機構の反復処理」は本質的に似ている。汎用コンピュータでは効率が悪いが、専用設計の回路なら圧倒的に速く、省電力に処理できる。


GRAPEが示したのは、「特化こそ最適化の王道」であり、同時に「電力効率の飛躍」という副産物が世界を救いうる、という二重の真理だった。これはまさに今、AI専用チップ時代に再現されようとしている。

CUDAが成し遂げた“汎用化”の革命

専用チップが持つ効率の優位は歴史的に証明されてきた。しかし一方で、その強みが「特定分野にしか使えない」という制約に直結するのもまた事実だ。東京大学のGRAPEが天文学において偉大な成果を残したのは間違いないが、そのハードを医療や金融に転用することはできなかった。専用化は威力を発揮する代わりに、用途の狭さという宿命を背負う。

このジレンマを打ち破ったのが、2006年に登場したNVIDIA CUDA(Compute Unified Device Architecture)である。GPUを「グラフィック処理専用」から「汎用計算資源」へと変貌させるソフトウェア抽象化レイヤー。それは、研究者や開発者がC言語に近い構文でGPUをプログラムできる環境を提供した。

CUDAによって、GPUは一夜にして「研究者の誰もが扱える計算エンジン」となった。物理シミュレーション、金融モデリング、ゲノム解析、そしてディープラーニング。あらゆる分野がGPUを取り込み、計算科学の裾野は一気に広がった。専用チップが縦割りで存在していた世界を、CUDAは横断的に接続する汎用基盤へと変えたのである。

AIブームを決定づけたのもこの仕組みだった。2012年のImageNetコンペで深層学習が圧勝した背景には、GPUとCUDAが研究者に提供した圧倒的な実験環境があった。CUDAがなければ、AIの黄金期はもっと遅れて訪れていただろう。

ここで注目すべきは、CUDAが「ソフトウェアによる汎用化」を成し遂げた点である。GRAPEはハードウェアを専用化することで高速化を果たしたが、CUDAは逆にソフトウェアの力でGPUを汎用化した。専用と汎用、ハードとソフト。両者は表裏一体であり、計算機史の振り子が大きく振れた瞬間だった。

この成果は、現在の専用AIチップ開発においても重要な示唆を与える。いかに優れた専用ハードを作っても、それを広く利用できる抽象化レイヤーがなければ普及は難しい。CUDAが築いたような「ソフトで吸収する仕組み」が、次の専用チップ時代にも求められるのは間違いない。

専用と汎用の歴史サイクル

計算機の歴史を振り返ると、「専用」と「汎用」は交互に主役を入れ替えてきた。まるで振り子が左右に揺れるように、そのときどきの技術課題と経済環境が、どちらを選ぶかを決めてきたのである。

ベクトル計算機の時代

1970〜80年代、スーパーコンピュータの王者といえばCray-1だった。1976年に登場したこの名機は、ベクトル演算に特化したアーキテクチャと独創的なC字型デザインで知られる。気象予測や流体力学、核融合研究など特定用途で圧倒的性能を発揮し、「世界一速い計算機」として科学技術を牽引した。
だがその威力は用途の狭さと引き換えだった。開発コストは莫大で、広く一般用途に普及することはなく、やがて市場はより汎用的な並列計算機へと移っていく。

GRAPEと専用アクセラレータ

1990年代に登場したGRAPEは、重力演算に特化することで汎用機を超えた。だがこれは天文学という狭い領域での勝利であり、広い産業利用へと波及することはなかった。専用化の限界がここにも顔を出す。

CUDAとGPGPU

2000年代に入ると、CUDAによるGPUの汎用化が始まった。GPUは一気に「何にでも使える並列計算エンジン」へと昇格し、AIブームを後押しした。専用から汎用への揺り戻しが起きた瞬間だった。

再び専用化の波

そして今、振り子は再び専用側に振れつつある。推論需要という膨大な負荷を前に、電力効率やコストの観点から、専用チップが合理的な答えを提示している。OpenAIのBroadcom提携を含め、各社が独自チップを開発するのはこの流れの必然だ。

サイクルの意味

このサイクルが示すのは、「専用と汎用の優劣」ではなく、「課題に応じてどちらが合理的か」が時代ごとに変わるということだ。振り子は一方向に固定されることはない。やがて専用チップが普及すれば、それを抽象化して汎用的に使う新たなソフトウェア層──次のCUDA的存在──が現れるだろう。


計算機史は「専用化と汎用化のせめぎ合い」というリズムで進んできた。そして我々はいま、その振り子が再び専用に傾く瞬間に立ち会っている。だが同時に、その先にまた汎用への揺り戻しがあることも歴史が物語っている。

未来展望:量子・光学・ニューロモルフィック

専用と汎用の振り子は、これからも止まることはない。むしろAIブームを越えて、新しい計算機アーキテクチャの登場によって、さらに大きく揺れ動く可能性がある。

量子コンピューティングの未来

量子計算は今のところ、特定問題──因数分解や組合せ最適化など──にしか実用性を発揮できない「専用機」に近い存在だ。しかし将来的に量子誤り訂正やハイブリッド計算が成熟すれば、量子は「汎用計算資源」へと拡張されるかもしれない。言い換えれば、量子もまた専用から汎用への同じサイクルを辿る可能性がある。

光学演算の可能性

もうひとつの潮流は光学コンピューティングだ。電子ではなく光で行列演算を処理する方式は、電力効率が飛躍的に高い。特にAI推論のような「同じ処理の繰り返し」には極めて相性がよい。すでにスタートアップが光学AIアクセラレータを試作しており、もし商用化されれば電力クライシスの緩和に直結する。

ニューロモルフィックの再来

さらに、脳神経の仕組みを模倣したニューロモルフィック計算も再び注目されている。IBMのTrueNorthやIntelのLoihiのように、スパイキングニューロンを模した専用チップは一時期停滞していたが、エッジAIや省電力用途では再評価が進む。人間の脳が示す「超低消費電力の知能」を模倣できれば、専用化の究極形とも言える。

エッジとクラウドの二層構造

未来は「クラウド=大規模専用チップ」「エッジ=軽量専用チップ」という二層構造になるだろう。スマートフォンやIoTデバイスにもAI専用プロセッサが標準搭載され、クラウドと連携しながら分散処理を行う。すでにAppleのNeural EngineやGoogle PixelのTPUが先行しており、これは日常生活の中に専用化の恩恵を行き渡らせる動きだ。


結局のところ、未来の計算機は「専用と汎用の共存」が当たり前になる。
量子も光学もニューロモルフィックも、最初は専用から始まるが、いずれはソフトウェア抽象化によって汎用資源へと統合されていくだろう。振り子の揺れは終わらず、人類はそのリズムに合わせて新しい計算の地平を切り拓いていく。

NVIDIAはどうなるのか

AIブームの最大の勝者は、間違いなくNVIDIAだった。
GPUを汎用計算の主役に押し上げ、CUDAによるソフトウェア基盤を提供し、さらにネットワークやサーバーまで包括することで、AIインフラの覇者として君臨した。2020年代半ばには、時価総額で世界一に躍り出るという、かつて誰も想像しなかった地点に到達したのである。

しかしその栄光が永遠に続くとは限らない。各社が専用チップ開発に踏み切った最大の理由は、NVIDIAへの過度な依存だった。GPU価格の高騰、供給制約、そして利益の大半をNVIDIAに吸い上げられる構造。クラウド大手やLLMメーカーが忸怩たる思いを抱いたのは当然だろう。

GPUの生き残る領域

とはいえ、NVIDIAがすぐに市場から退場することはない。

  • 学習用途:新モデル開発や研究段階では、依然としてGPUの柔軟性と汎用性が不可欠。
  • CUDAロックイン:研究者・開発者の膨大なコード資産がCUDA上に積み上がっており、短期的に別アーキテクチャへ移行するのは難しい。
  • システム全体戦略:GPUだけでなく、Mellanoxによる高速ネットワーク、DGXサーバー群による統合システムを提供することで、単なる部品屋から「フルスタックのAI基盤ベンダー」へ進化している。

専用チップ時代の逆風

だが、推論市場の多くを専用チップに奪われる可能性は高い
推論こそAI需要の大部分を占めるからだ。もしGoogleのTPU、AmazonのInferentia、OpenAIのBroadcomチップが普及すれば、NVIDIA GPUの設置比率は確実に下がるだろう。さらに電力効率を問う声が強まれば、「GPUは贅沢な計算資源」という烙印を押されかねない。

栄光から調整局面へ

NVIDIAは「万能GPU」の看板を守り続けるか、それとも自らも専用化に踏み込むか。いずれにせよ、時価総額で世界を制した現在の立場は、やがて調整局面を迎えるのは避けられまい。栄光の頂点に立ったがゆえに、次の波に押し戻される──それは計算機史が繰り返してきた必然のリズムでもある


NVIDIAの物語は、単なる企業史ではなく「専用と汎用のせめぎ合い」の縮図だ。
専用化の波が押し寄せる中で、かつての覇者がどのように生き残るのか──その行方は、計算機史の次の章を占う試金石となる。

計算機史のダイナミズム

OpenAIがBroadcomと手を組み、独自チップを持つのではないかという報道は、単なる一企業の動向にとどまらない。それは、計算機史を貫く大きなダイナミズム──専用と汎用のせめぎ合い──の中に位置づけられる出来事である。

Cray-1が示したベクトル計算機の専用化、東京大学GRAPEが証明した専用アクセラレータの効率性、そしてCUDAが切り拓いたGPU汎用化の時代。歴史は何度も振り子を揺らし、専用と汎用の立場を入れ替えてきた。そして今、その振り子は再び専用へと大きく傾きつつある。

この潮流の核心にあるのは、電力効率という人類全体の課題だ。AI推論が社会インフラの一部となり、膨大な電力を消費する現実を前に、専用チップによる効率化はもはや技術的選択肢ではなく、文明的要請となっている。かつてGRAPEがLittle Green 500で証明したように、専用設計は省電力性能を飛躍的に高めうる。それはAI時代において「地球を救う技術」として再び脚光を浴びている。

実際、電力効率をめぐる競争はすでに始まっている。Googleによれば、過去12カ月で同社のGeminiモデルはテキストプロンプト1回あたりの電力消費を33分の1に、総カーボンフットプリントを44分の1に削減したという。これは「テレビを9秒見る」程度、あるいは「水5滴」に相当するごくわずかな消費量だと喩えられている。そしてその背景には、同社が誇るTPUの電力効率があると強調されている。もはやAIの競争軸は「性能」から「効率」へと移りつつあるのだ。

もちろん、GPUが不要になるわけではない。新しい知能を生み出す畑として、学習や研究の現場でGPUは依然として不可欠だ。しかし、日々の膨大な推論処理を担うのは、専用チップ群の船団へと移っていく。この役割分担こそが、次の十年の計算基盤を形作るだろう。

そして忘れてはならないのは、この揺らぎそのものが進歩を生むということだ。専用と汎用のせめぎ合いは、過去のスーパーコンピュータ史から現在のAIチップ競争、さらには量子や光学へと続いていく。振り子が動くたびに、新しい抽象化、新しい効率化、新しいアーキテクチャが生まれる。

OpenAIが専用チップ時代に歩を進めるのは、そのダイナミズムの最新の表現にすぎない。次に振り子がどちらへ動くのか──それは誰にもわからない。だがひとつ確かなのは、私たちがまさにその歴史の転換点に立ち会っているということだ。