MRAMはAIを速くしない。AIを待たせなくする── KVキャッシュと3D積層が変えるエッジLLMの設計思想

MRAMはAIを速くしない。AIを待たせなくする── KVキャッシュと3D積層が変えるエッジLLMの設計思想 TECH
MRAMはAIを速くしない。AIを待たせなくする── KVキャッシュと3D積層が変えるエッジLLMの設計思想

エッジAIの体感性能を決めているのは帯域ではなく「待たされる時間」だ。
MRAMはモデルを速く読むのではなく、KVキャッシュを消さないことで再開ゼロ秒を実現する。
3D積層MRAMはHBMとは競わず、エッジLLMの記憶階層を静かに書き換えようとしている。

序章|MRAMは速くない。それでもAIを速くする

AIの性能を語るとき、私たちは反射的に「帯域」を持ち出す。
HBMは何GB/s出るのか、DRAMはどこまで高速化したのか。
AIの進化は、いつの間にか「どれだけ太いメモリを食わせられるか」という競争に還元されてしまった。

だが、その見方はすでに限界に来ている。

現実のAI、とりわけエッジで動く小型言語モデル(SLM)において、
ユーザー体験を決めているのはピーク帯域ではない

むしろ支配的なのは、「待たされる時間」だ。

電源を入れてから反応するまでの間。
スリープから復帰して、会話が再開されるまでの間。
あるいは、ほんの数秒の中断で“文脈が消えた”と感じる、あの違和感。

この「時間の断絶」こそが、エッジAIの最大の敵である。

従来のメモリ階層は、この断絶を前提に作られてきた。
モデルは不揮発ストレージに眠り、起動時にDRAMへロードされる。
DRAMは高速だが揮発性で、待機中も電力を食い続ける。
結果として、起動・再開・維持のすべてに無駄なコストが発生する。

ここで注目され始めたのが MRAM(磁気抵抗メモリ) だ。

MRAMは、決して速いメモリではない。
少なくとも、HBMのような圧倒的帯域を持たない。
この一点だけを見れば、AI用途に不向きだと切り捨てられてきたのも無理はない。

しかし──
MRAMは、消えない
しかも、すぐに読める

この性質は、AIの「計算」を速くするのではなく、
AIの“時間構造”そのものを変える

とくに重要なのが、言語モデルの内部で使われる KVキャッシュ だ。
推論の体感速度や会話の連続性を左右するこのデータは、
帯域よりも「保持されていること」「即座に参照できること」が価値になる。

さらに、KIOXIAをはじめとするメモリメーカーは、
NANDで培った積層化と並列制御の思想をMRAMに持ち込もうとしている。
3D積層されたMRAMを層ごとに並列化する──
それはHBMの模倣ではなく、まったく別の勝ち筋だ。

本稿では、MRAMを「ロードレス起動のためのメモリ」としてではなく、
KVキャッシュを常駐させ、再開ゼロ秒のAI体験を実現する中核技術として再定義する。

MRAMは速くない。
だが、AIを待たせない

その違いが、エッジAIの未来を静かに、しかし決定的に変えようとしている。

第1章|ロードレス神話を壊す──本当のボトルネックはどこにあるのか

MRAMがAIの文脈で語られるとき、ほぼ必ず登場する言葉がある。
「ロードレス起動」だ。

ストレージからDRAMへモデルを展開する時間を省き、
電源ONと同時に推論を開始できる。
この説明は分かりやすく、たしかに魅力的だ。

だが、ここには一つの誤解が潜んでいる。

エッジAIにおいて、
もっとも頻繁に起きているのは「起動」ではない。

実際の利用シーンを思い浮かべてほしい。

スマートスピーカーは常に電源が入っている。
車載AIも、完全に電源断されることは少ない。
スマートグラスやウェアラブルは、
「オフ」ではなく「スリープ」と「復帰」を繰り返す。

つまり現場で支配的なのは、

  • 電源OFF → ON
    ではなく
  • スリープ → 再開

である。

起動時間より深刻な「再構築時間」

ここで問題になるのが、言語モデル内部の状態だ。

多くの議論では、
「モデルの重みをどこに置くか」ばかりが注目される。
だが実際の推論体験を左右しているのは、
重みそのものではない。

鍵を握るのは KVキャッシュ だ。

KVキャッシュとは、
過去のトークンに対する Key / Value を保持する内部状態であり、
言語モデルが「文脈を覚えている」ための記憶領域である。

このキャッシュが失われると、何が起きるか。

  • 会話が途切れる
  • 推論が最初からやり直される
  • レイテンシが急に増える
  • 「さっきの話を忘れたAI」になる

ユーザーが感じる不満の多くは、
この瞬間に集中している。

そして厄介なことに、
KVキャッシュは揮発的だ。

DRAM上に置かれるため、
スリープが深くなれば消える。
電源を落とせば確実に消える。

結果として、再開時には

  1. モデルはすでにロード済み
  2. それでも推論は遅い
  3. 文脈は失われている

という、非常に中途半端な状態が生まれる。

「ロードレス=速い」は半分しか正しくない

ここでロードレス神話を一度整理しよう。

MRAMにモデルを常駐させれば、
たしかに「ロード時間」は消える。
だが、それだけでは体感速度は完成しない

なぜなら、
再構築されるKVキャッシュこそが、
本当のボトルネックだからだ。

ロードレス起動は、
「電源を切ってもすぐ動く」体験を与える。

だがエッジAIに必要なのは、

  • 止めても、すぐ“続きから”動く
  • 文脈が途切れない
  • 考え直しをしないAI

である。

この視点に立った瞬間、
MRAMの役割はまったく違って見えてくる。

MRAMは、
「モデルを置くためのメモリ」ではない。

AIの“途中経過”を保存するためのメモリなのだ。

次章では、
なぜKVキャッシュが「第二のメモリ階層」と呼ぶべき存在なのか、
そしてなぜDRAMでは限界があるのかを、
もう一段深く掘り下げていく。

第2章|KVキャッシュは「第二のメモリ階層」である

言語モデルの推論を理解するうえで、
KVキャッシュを単なる作業用バッファだと考えると、必ず設計を誤る。

KVキャッシュは一時データではない。
それは、モデルの“思考の履歴”そのものだ。

KVキャッシュの正体

LLMは、トークンを1つ生成するたびに、

  • 過去トークンの Key / Value を参照し
  • それを次の推論の前提として積み上げていく

この積み重ねがなければ、
モデルは常に「初対面の相手」と会話することになる。

ここで重要なのは、KVキャッシュの性質だ。

  • アクセスはランダム
  • 読み出し頻度が非常に高い
  • 書き込みはトークン単位で小刻み
  • サイズはモデル重みよりはるかに小さい
  • だが、消えると体験が壊れる

この特性は、
DRAMが得意とする「太い連続帯域」とは、
微妙に噛み合わない。

DRAMにKVを置く設計の限界

現在の多くのAIシステムでは、
KVキャッシュは当然のようにDRAM上に置かれている。

理由は単純だ。
高速で、容量があり、既存の設計にそのまま乗る。

だが、エッジAIの文脈では問題が噴き出す。

  • スリープに入るたびにKVが消える
  • 待機中もDRAMはリフレッシュ電力を消費する
  • 深いスリープを使えない
  • 「電池を守るか、文脈を守るか」の二択を迫られる

つまりDRAMは、

計算中は優秀だが、
“考えていない時間”に最も邪魔になるメモリ
なのだ。

エッジAIの稼働率は低い。
しかし、存在している時間は長い

この非対称性が、DRAM設計と根本的に合わない。

KVキャッシュは「常駐メモリ」であるべき

ここで発想を切り替える。

KVキャッシュを
「毎回作り直す作業領域」ではなく、
「常駐させるべき状態」と捉え直す。

そうすると、必要な条件が見えてくる。

  • 不揮発であること
  • レイテンシが低いこと
  • ランダムアクセスに強いこと
  • 容量は数MB〜数十MBで足りる
  • 書換え耐久性が高いこと

この条件を満たすメモリは、実は少ない。

NANDフラッシュは遅すぎる。
SRAMは高価すぎる。
DRAMは消えてしまう。

ここで、MRAMがぴたりとはまる。

MRAMは「KVキャッシュのためのメモリ」だった

MRAMは、

  • DRAM級のレイテンシ
  • 不揮発
  • 高い書換え耐久性
  • 待機時の消費電力がほぼゼロ

という特性を持つ。

これは偶然ではない。

KVキャッシュという存在が
「AI時代における第二のメモリ階層」を生み、
MRAMはそこに最初から適合する性質を持っていた。

言い換えれば、

MRAMは、モデルを保存するためにあるのではない。
AIの“記憶”を保存するためにある。

この瞬間、
MRAMは「ロードレス起動用の補助部品」から、
AI体験を左右する中核コンポーネントへと昇格する。

次章では、
このKVキャッシュ常駐という要求が、
なぜHBMでは満たせず
なぜ3D積層MRAM+並列化という発想につながるのかを解き明かす。

第3章|HBMはKVに向かない──3D積層MRAMという別解

AIメモリの話題になると、必ず持ち出される絶対王者がある。
HBM(High Bandwidth Memory)だ。

桁違いの帯域。
GPUの計算能力を限界まで引き出すための切り札。
AI=HBMという連想が、すでに常識になりつつある。

だが、その常識はKVキャッシュには当てはまらない

HBMは「行列演算のためのメモリ」

HBMが真価を発揮するのは、次のような場面だ。

  • 大規模な連続アクセス
  • ワイドなデータ幅
  • 同期的で予測可能なアクセスパターン
  • 行列演算向けの高スループット

つまりHBMは、

「太い一本道を、全速力で流す」ためのメモリである。

トレーニングや推論中の重み参照、
巨大なテンソル演算では、これ以上ない選択肢だ。

KVキャッシュのアクセスは、HBMの真逆にある

一方で、KVキャッシュはどうか。

  • アクセスは細かく
  • 参照位置はランダム
  • 同時に複数ストリームが走る
  • 帯域よりもレイテンシと同時性が重要
  • 状態は長時間保持される

これはHBMが最も苦手とする領域だ。

HBMにKVを置くと、どうなるか。

  • 高帯域の恩恵を活かしきれない
  • 無駄に電力を消費する
  • スリープとの相性が悪い
  • 「速いのに体感が良くならない」

という、奇妙な現象が起きる。

HBMは悪くない。
用途が違うだけだ。

3D積層MRAMが向いている理由

ここで浮上するのが、
3D積層MRAM+並列アクセスという発想である。

MRAM単体の帯域は細い。
だが、構造的に次のことができる。

  • 層ごとに独立したバンクを持てる
  • チャンネルを細かく分割できる
  • ランダムアクセスを同時多発させやすい
  • 不揮発のため常時オンである必要がない

これは、

「細い道を無数に張り巡らせる」設計だ。

KVキャッシュは、
この“路地網”を好む。

HBMと3D MRAMは競争しない

重要なのは、
3D積層MRAMがHBMの代替ではないという点だ。

両者は戦う場所が違う。

  • HBM:
    行列演算・連続アクセス・最大帯域
  • 3D MRAM:
    状態保持・ランダム参照・即時再開

どちらが上か、ではない。
どこを任せるかの問題だ。

そしてKVキャッシュという存在が、
この役割分担を一気に明確にした。

KIOXIAが描く「別の勝ち筋」

KIOXIAがMRAMに見ている未来は、
HBM市場への正面突破ではない。

それは、かつてNANDフラッシュでやったことと同じだ。

  • セルは遅い
  • だが、積層する
  • 並列化する
  • 制御で性能を作る

「物理の弱点を、構造と制御で裏返す」。

3D積層MRAMを
層=チャネルとして扱う設計は、
HBMのコピーではなく、HBMが立ち入れない領域を取る戦略である。

KVキャッシュ×3D MRAMが生む体感性能

ここで重要なのは、ベンチマークの数字ではない。

  • 会話が途切れない
  • スリープから即復帰する
  • 文脈が保持される
  • 電池が減らない

これらはすべて、
帯域では測れない性能だ。

KVキャッシュを3D積層MRAMに常駐させることで、
AIは「速くなる」のではなく、
「待たせなくなる」

この違いは、エッジAIでは致命的に大きい。

次章では、
この構成が現実のデバイス設計で
どのようなメモリ階層として落ち着くのか、
MRAM・DRAM・NANDを組み合わせた“実用解”を描いていく。

第4章|エッジAIのための現実的メモリ階層──MRAMはどこに入るのか

ここまでで見てきたように、
MRAMは「速いメモリ」ではなく、
AIの状態を保持するためのメモリとして価値を発揮する。

では実際のエッジデバイス設計では、
MRAMはどこに配置されるべきなのか。

答えは単純で、
単独ではなく、階層の一部として組み込まれる。

三層構造という現実解

エッジAIにおける最も現実的な構成は、
次の三層構造だ。

① MRAM:状態常駐レイヤー

  • KVキャッシュ
  • セッション状態
  • 推論コンテキスト
  • 重要な設定・特徴量

不揮発で保持され、
スリープや電源断をまたいで“続きから再開”を可能にする。

② DRAM:演算ワークスペース

  • 行列演算用バッファ
  • 一時テンソル
  • 高帯域が必要な処理

推論中だけ活性化し、
不要なときは眠らせる。

③ NAND / SSD:アーカイブ

  • モデル本体
  • バージョン違い
  • ロールバック用データ

更新や保管を担うが、
リアルタイム性能は要求されない。

この役割分担により、
それぞれのメモリは得意分野だけを任される

MRAMが入ることで変わる設計思想

MRAMを入れると、
設計思想そのものが変わる。

従来は、

  • DRAMを常時オン
  • 起動後はすべてDRAM頼み
  • スリープは浅くせざるを得ない

という構成だった。

MRAMが入ると、

  • 状態はMRAMに退避
  • DRAMは演算時だけオン
  • 深いスリープが使える

つまり、
「常に動いているAI」から
「必要なときだけ目を覚ますAI」
へと変わる。

これはバッテリ駆動デバイスにとって決定的だ。

スマートグラス/車載での意味

スマートグラスを例にしよう。

  • 装着 → 即応答
  • 外す → スリープ
  • 再装着 → 文脈を保持したまま再開

この体験は、
DRAM単独では成立しない。

車載AIでも同じだ。

  • エンジンON → すぐ音声応答
  • 一時停止 → 状態保持
  • 再始動 → “さっきの続き”

MRAMは、
AIを「常駐する存在」に変える

コントローラが主役になる

ここで重要なのが、
メモリコントローラの役割だ。

MRAMをただ載せるだけでは意味がない。

  • 何をMRAMに置くか
  • いつDRAMへ昇格させるか
  • いつMRAMへ戻すか

この判断を、
ソフトウェアとハードウェアが協調して行う必要がある。

KIOXIAがNANDで培ってきたのは、
まさにこの領域だ。

  • 物理的に遅いセルを
  • 論理的に速く見せる
  • 制御で体感性能を作る

MRAMでも同じことが起きる。

セルではなく、構造と制御が性能を決める。

ベンチマークに出ない性能

この構成の価値は、
ベンチマークには表れにくい。

  • 起動時間
  • 再開時間
  • 体感レイテンシ
  • バッテリ寿命

これらは
AIチップのTOPSでは測れない。

だが、ユーザーは確実に感じ取る。

「このAIは、いつもそこにいる」

この感覚こそが、
エッジAIにおける最大の価値だ。

次章では、
この構成が直面する現実的な制約──
容量、コスト、帯域、量産性──を冷静に洗い出し、
なぜそれでもMRAMが選択肢として残るのかを整理する。

第5章|それでも残る課題──MRAMは万能ではない

ここまでMRAMの可能性を強調してきたが、
はっきり言っておく必要がある。

MRAMは魔法のメモリではない。

むしろ、制約は多い。
そしてその制約を正しく理解しない限り、
MRAMは「期待外れの技術」で終わる。

容量の壁──最大の現実

最初に直面するのは、やはり容量だ。

現時点で量産・実用段階にあるMRAMは、

  • 数十Mb〜数百Mb
  • 試作・研究段階でようやくGb級

という水準にとどまる。

これは、

  • フルサイズのLLM
  • 数十億パラメータモデル

を載せるには、明らかに不足している。

だが本稿で一貫して述べてきた通り、
MRAMの主戦場はモデル本体ではない。

KVキャッシュ、状態、セッション。
この用途に限れば、
必要容量は桁違いに小さくなる。

つまりMRAMは、

「足りないからダメ」ではなく、
「使う場所を間違えるとダメ」なメモリだ。

コスト──DRAMやNANDとは比べない

次にコスト。

MRAMは高い。
これは事実であり、当面変わらない。

  • 製造プロセスが複雑
  • 歩留まりが成熟途上
  • 専用工程が必要

このため、
GB単価でDRAMやNANDと競争する発想は破綻する。

だが、KVキャッシュ用途であれば、

  • 数MB〜数十MB
  • SoC内蔵、または近接配置

という設計が可能になる。

コストは「容量×単価」ではなく、
「体験価値×削減できた電力・部品点数」で評価すべき領域だ。

帯域とレイテンシのトレードオフ

MRAMのレイテンシはDRAMに近い。
しかし帯域は明確に劣る。

これは構造的な制約であり、
今後もHBM級になることは考えにくい。

だが、ここでも重要なのは用途だ。

  • KVキャッシュは帯域を食わない
  • レイテンシと同時性が支配的

MRAMはこの条件を満たす。

逆に言えば、
MRAMに演算ワークスペースを任せる設計は失敗する。

量産性とプロセス互換

MRAMは、CMOSと親和性があるとはいえ、
NANDほど成熟した量産技術ではない。

  • ファウンドリの対応状況
  • プロセスノードの制約
  • EDAツールの最適化

これらはまだ発展途上だ。

ただし、eMRAMとしてSoCに組み込む流れは、
すでに現実のものになりつつある。

つまり、

  • 「外付け大容量MRAM」はまだ先
  • 「内蔵・用途限定MRAM」はすでに始まっている

という段階だ。

外部磁場という“古典的な懸念”

MRAMは磁気を使う以上、
外部磁場の影響を受ける可能性がある。

これは自動車、工場、医療機器では
必ず議論になるポイントだ。

実際には、

  • シールド設計
  • セル構造の工夫
  • 誤り訂正(ECC)

によって実用レベルの信頼性は確保されつつある。

だが「完全に無視できる」わけではない。
設計者が理解した上で使う必要がある。

それでもMRAMが残る理由

ここまで課題を並べると、
MRAMは不利に見えるかもしれない。

それでもMRAMが選択肢として残る理由は、
他に代替が存在しないからだ。

  • 不揮発
  • 低レイテンシ
  • 高耐久
  • ランダムアクセス

この組み合わせを満たすメモリは、
現時点でMRAMしかない。

だからMRAMは、

  • 主役にはならない
  • だが、外すと成立しない

という、厄介で重要な存在になる。

次章では、
こうした制約を踏まえたうえで、
MRAMが今後どこに入り込み、
どのように“当たり前”になっていくのか
──
未来像を描いて締めに向かう。

終章|MRAMはAIを速くしない。AIを待たせなくする

ここまで見てきたように、MRAMはAIの演算性能を直接押し上げる技術ではない。
TOPSが増えるわけでも、ベンチマークの数字が跳ね上がるわけでもない。

それでもMRAMが注目される理由は、
AIの「速さ」ではなく、「待たされる時間」を消す力を持っているからだ。

エッジAIにおいて本当に問題になるのは、
ピーク性能ではなく、時間の断絶である。

  • 電源ONから応答までの間
  • スリープから復帰するまでの間
  • 文脈が途切れ、「考え直し」が始まる瞬間

これらはすべて、
従来のメモリ階層が前提としてきた
「揮発性」「ロード」「再構築」という構造が生んだ副作用だ。

MRAMは、その構造そのものに手を入れる。

モデルを速く読むのではない。
AIの状態を消さない。

KVキャッシュ、セッション、途中までの思考。
それらを保持したまま眠り、
必要なときに、何事もなかったかのように再開する。

この「再開ゼロ秒」という性質は、
帯域では測れないが、
体験としては決定的な差を生む。

さらに、3D積層MRAMと並列化の発想は、
HBMと同じ土俵で戦わないという、
もう一つの重要な示唆を与える。

太い帯域で演算を支えるHBM。
細かい並列で状態を支えるMRAM。

この役割分担が成立したとき、
AIシステムはようやく「計算」と「記憶」を分離できる。

KIOXIAがMRAMに見ている未来も、
この延長線上にあるだろう。

セル単体の性能で競わず、
積層と制御で価値を作る。
NANDで培った思想を、
AI時代のメモリ階層に持ち込む。

それは派手な革命ではない。
だが、気づいたときには当たり前になっているタイプの変化だ。

数年後、私たちはこう振り返るかもしれない。

「昔のエッジAIは、
電源を入れるたびに“考え直して”いた」と。

MRAMはAIを速くしない。
しかし、AIを待たせなくする

その違いが、
エッジAIを「使える技術」から
「そこにいる存在」へと変えていく。

静かだが、確実な変化である。