量子コンピュータはなぜ“動かなかった”のか ─ 富士通が示した突破口

量子コンピュータはなぜ“動かなかった”のか ─ 富士通が示した突破口 TECH

量子コンピュータは、IBMやGoogleがキュービット数を競うニュースが続いてから、しばらく時間が経っている。
なぜ進まなかったのか。
その答えは「エラー訂正」にあった。
数を増やしても、計算そのものが成立しなければ意味がない。


量子コンピュータはなぜ難しいのか

1980年代、リチャード・ファインマン はこう考えた。
「自然が量子で動いているなら、計算も量子でやるべきだ」

この発想は直感的でありながら、非常に強力だった。
古典コンピュータでは指数的に難しい問題も、量子なら解ける可能性がある。

つまりこの時点で、方向性は正しかった。


理論は完成していた ─ ショアの衝撃

1994年、ショアのアルゴリズム が登場する。

大きな整数の素因数分解を高速に解くこのアルゴリズムは、
暗号の前提を覆す可能性すら持っていた。

ここで世界は理解する。

「量子コンピュータは、できれば勝ちだ」

問題はただ一つ。
“できない”ことだった。


壊れ続けるという現実

量子コンピュータは、本質的に壊れやすい。

  • 外部ノイズで状態が崩れる
  • 観測すると情報が失われる
  • わずかな誤差が計算を破壊する

この現象は単なるバグではない。
量子という性質そのものに由来する。

つまり、

“正しく計算すること自体が難しい”

という、通常の計算機には存在しない問題を抱えている。


エラー訂正という地獄

この問題に対処するために必要なのが
量子誤り訂正 だ。

しかし、ここで新たな問題が発生する。

  • 1つの論理キュービットを守るために
  • 数百〜数千の物理キュービットが必要

結果どうなるか。

数百万量子ビットを用意しても、
実際に計算に使えるのは数百に過ぎない

これは誇張ではない。
量子コンピュータの開発が停滞してきた理由、そのものだ。


量の限界 ─ スケールしない世界

これまでの主流は単純だった。

「キュービットを増やせば解決する」

実際、Google や IBM は
大規模化に投資し続けてきた。

しかし現実は違った。

物理キュービットを増やしても、
エラー訂正のコストがそれ以上に膨らむ。

論理キュービットは増えない

つまりこれは、

スケールしない計算機

だった。


富士通の試み ─ “密度”への転換

ここで方向が変わる。

富士通 のアプローチは、単純な増量ではない。

エラー訂正そのものの効率を改善する

  • より効率的な符号化
  • エラー検出・補正の最適化
  • 実装を前提にした設計

これは発想の転換だ。

「量を増やす」から
「使える量を増やす」へ

STARアーキテクチャ
STARアーキテクチャは、Early-FTQC時代の量子コンピュータでも実用的な計算を実現することを目的とした、独自の量子計算アーキテクチャです。本特集ページでは、その技術の考え方と研究成果を紹介します。

何が変わるのか

従来はこうだった。

  • 数百万量子ビット → 数百論理キュービット

しかし、もしエラー訂正効率が変われば、

  • 数万量子ビット → 実用圏

という逆転が起きる可能性がある。

これは単なる効率化ではない。

計算機の成立条件そのものが変わる


結論 ─ 量子コンピュータは“数”ではなく“密度”で決まる

量子コンピュータの本質は、演算能力ではない。

エラーとの戦い

そして今回の意味は明確だ。

「量の競争」から「密度の競争」への転換

数百万あっても使えない世界から、
数万でも成立する世界へ。

もしこの方向が正しければ、
量子コンピュータはようやく“作れる機械”になる。


参照

量子コンピュータの実用化を早める新たな量子計算アーキテクチャを確立 : 富士通
量子コンピュータの実用化を早める新たな量子計算アーキテクチャを確立