Geminiはなぜ賢いのに間違えるのか─ Google検索インデックスという最強の武器が生む構造的ハルシネーション

Geminiはなぜ賢いのに間違えるのか─ Google検索インデックスという最強の武器が生む構造的ハルシネーション TECH
NOT INDEXED

ある日、私はGeminiに質問して、
AIに嘘をつかせてしまった。

それは、
検索帝国Googleが抱える
構造的な問題を
偶然あぶり出してしまった瞬間だった。

序章 最強の知識基盤を持つAIの奇妙な評価

Googleの検索インデックスは、
人類史上最大級の知識データベースと言っていい。

世界中のWebページ、論文、ニュース、政府資料。
Googleはそれらをクロールし、整理し、検索可能な形にしてきた。

この巨大な知識基盤の上に立っているAIが Gemini だ。

普通に考えれば、このAIは圧倒的に有利なはずだった。
どのモデルよりも

・最新情報
・事実性
・信頼性

で優位に立てる。

しかし現実には、奇妙な結果が出ている。

AIベンチマークの一つ
AA-Omniscience Benchmark では

Gemini 3 Pro が

  • Accuracy(正答率):トップクラス
  • Hallucination Rate:約88%

という極端な数字を記録した。

これは一見すると奇妙な組み合わせだ。

よく当たるAIなのに、
知らない問題では派手に外す。

知識量の問題なら説明は簡単だ。
だがGeminiはむしろ逆で、知識は豊富な側にいる。

ではなぜ、このような評価になるのか。

この疑問から、この記事は始まる。

問題はAIの能力ではない。
問題は

Googleという企業構造

にある。

GoogleはAI企業であると同時に
検索帝国であり、広告帝国でもある。

そのためGeminiは

最強の知識基盤を持ちながら
最も自由に情報を扱えないAI

になっている。

さらに皮肉なことに、
その背後ではGoogle自身が

AI Slop

と呼ばれる情報洪水に苦しんでいる。

検索インデックスの品質を守れるのか。
広告モデルを守れるのか。
そしてGeminiの評価を守れるのか。

この三つの問題は、実は別々ではない。

すべては

検索インデックスという知識基盤

に収束している。

コラム Geminiは最近“嘘を減らした

AA-Omniscienceのハルシネーション率は、

「AIが知らない問題に出会ったとき、
 どれくらい“推測で答えてしまうか”

を測っている。

つまりこのベンチマークは、

・知っている問題
ではなく

知らない問題への態度

を試している。


極端に単純化するとこういう試験だ。

10問あるとする。

AIが本当に知っているのは3問だけ。
残り7問は知らない。

ここでAIの行動は3種類になる。

1
正解する

2
「わからない」と答える

3
それっぽい嘘を作る


AA-Omniscienceが見ているのは
3番の割合だ。

だから、Gemini 3 Pro の 88% という数字は、

「AIが知らない問題に遭遇したとき、
 かなり高い確率で推測回答してしまう

という意味になる。

知識が間違っているわけではない。
“黙れないAI”だったということだ。


Gemini 3.1 Pro Preview ではこれが

88% → 50%

まで下がった。

つまりGoogleはAIの知識量を増やしたというより、

推測癖を抑える方向にチューニングした可能性が高い。

これはAI研究ではかなり重要な進歩だ。

第1章 Geminiは「最強の武器」を持つAI

Geminiの最大の特徴は、単なる言語モデルではないという点にある。
その背後には、Googleが長年築いてきた巨大な知識基盤が存在する。

Google検索は、世界中のWebページをクロールし、解析し、インデックス化してきた。
ニュースサイト、政府機関、論文データベース、企業サイト、個人ブログ。
その数は数百億ページとも言われる。

これらは単なるデータの集合ではない。
リンク構造、引用関係、信頼度評価、更新履歴といった複雑な情報を伴った
整理された知識体系である。

言い換えれば、Google検索は巨大な図書館だ

しかもこの図書館は、単に本を集めているだけではない。
検索順位という形で

どの情報が信頼できるのか
どの情報が重要なのか

を常に評価し続けている。

Geminiは、この図書館の司書のような存在だ

AIが質問を受け取ると、
背後にある検索インデックスから関連情報を引き出し、
それをもとに回答を構成する。

この構造は、他の多くのAIとは大きく異なる。

一般的なLLMは、主に

学習データ

に依存している。

訓練時に取り込んだ膨大なテキストをもとに、
確率的にもっともそれらしい文章を生成する。

しかしGeminiは違う。

Geminiには、検索インデックスという第二の知識源がある。

これはAIの世界では極めて強力な武器だ。

学習データだけに頼るAIは、どうしても
知識の更新が遅れる。

一方でGeminiは、検索を通じて
より新しい情報にアクセスできる。

この意味で、Geminiは

巨大な図書館を背負ったAI

と言える。

そして普通に考えれば、この構造は
ハルシネーションを減らす方向に働くはずだった

AIが分からないことに出会ったとき、
検索すればよいからだ。

しかし現実は、必ずしもそうなっていない

なぜなのか。

その理由は、次の章で見えてくる。

第2章 それでもハルシネーションが増える理由

ここで一つの逆説が生まれる。

Geminiは、世界最大級の検索インデックスという
強力な知識基盤を持っている。

普通に考えれば、この構造は
ハルシネーションを減らす方向に働くはずだ。

AIが知らないことに出会ったとき、
検索すればよいからである。

しかし現実には、そう単純ではない。

Geminiは検索インデックスを自由に使っているわけではない。

GoogleはAI企業であると同時に
検索帝国でもある。

検索結果は、Googleの最も重要な資産だ。
その信頼性が揺らげば、検索そのものの価値が下がる。

そのためGeminiは恐らく、

  • 未検証情報
  • インデックス外情報
  • 出典不明の情報

を自由に扱うことができない。

つまりGeminiは

検索インデックスの内部に閉じたAI

なのである。

ここで問題が生まれる。

インターネットの情報は
次のような流れでAIに届く。

現実

記事

クロール

インデックス

AI

この過程には、必ず

時間差

が存在する。

新しい出来事が起きても、
すぐに検索インデックスに反映されるわけではない。

クロールされ、解析され、
信頼性が評価されてから
初めてインデックスに登録される。

その間、Geminiの世界には

知識の空白

が生まれる。

この状態をここでは

知識エアポケット

と呼ぶことにする。

現実には存在する情報が
AIの知識体系にはまだ現れていない。

そしてLLMには、もう一つの性質がある。

それは

沈黙が苦手

という点だ。

LLMは確率モデルであり、
質問が来ると

「もっともそれらしい答え」

を生成する。

つまり

知らない

答えない

ではなく

知らない

推測する

という振る舞いを取りやすい。

この二つの条件が重なると
奇妙な現象が起きる。

AIは

知識エアポケット

に入ったとき、

検索できない情報を
推測で埋めようとする。

その結果として現れるのが

ハルシネーション

である。

ここで重要なのは、
これは単なるモデルの欠陥ではないという点だ。

むしろ

検索インデックスという巨大な知識基盤

を守ろうとする構造そのものが、

AIにこの振る舞いを
生み出している。

つまりGeminiのハルシネーションは

能力の問題というより

構造の問題

なのである。

第3章 私がGeminiに嘘をつかせてしまった瞬間

あるとき、GeminiにURLを明示してある質問をした。

それほど難しい質問ではない。
インターネット上に確かに存在している情報だ。

しかしGeminiの回答は、
明らかに事実と違っていた。

最初はよくあるハルシネーションだと思った。

AIが推測で答えたのだろう、と。

ところが調べてみると、
少し奇妙なことに気づく。

Geminiが参照できるはずの検索結果に、
その情報が現れていないのだ。

情報は存在している。
人間のブラウザでは普通に見える。

だが検索インデックスには現れない。

つまりGeminiは、
嘘をついたわけではない。

見えていない世界を推測しただけだった。

この瞬間、私はあることに気づいた。

AIのハルシネーションは、
AIの問題ではないかもしれない。

AIが見ているインターネットが、
人間のインターネットと違うのではないか。


AIの問題は、しばしば「モデルの性能」の問題として語られる。
しかし、視点を少し変えると、まったく別の景色が見えてくる。

AIは、自分で知識を作るわけではない。
基本的には、人間が書いた情報を材料にしている。

つまり、AIの知識の源はインターネットだ。

ここでひとつ、静かな変化が起きている。

インターネットの構造が、急速に変わり始めているのだ。

かつてのWebは、比較的単純だった。
HTMLのページがあり、検索エンジンがそれをクロールし、インデックスを作る。
検索は、そのインデックスから情報を取り出す。

だが現在、多くのWebサイトは

JavaScript
API
動的生成ページ

といった仕組みで動いている。

人間のブラウザには問題ない。
ページを開けば、JavaScriptが実行され、画面が生成される。

しかし検索エンジンにとっては事情が違う。

クローラーは、基本的には
HTMLの静的構造を読む存在だ。

JavaScriptが多用されたページは、
内容の取得が難しくなる。

結果として、何が起きるか。

検索エンジンが読めるインターネットと、
人間が見ているインターネットが、
少しずつズレ始める。

この現象は、ある意味で

インターネットの地下化

と言える。

実際、多くの重要な情報は

ログインが必要なサイト
SNS
アプリ内コンテンツ
APIの奥

に閉じ込められている。

検索インデックスには現れない。

つまり、Googleが持つ「巨大な図書館」は
依然として巨大ではあるものの、

世界のすべてを収蔵しているわけではない

のである。

そしてAIが検索を頼りにするほど、
この問題はより目立つようになる。

図書館の棚にない本は、
司書も紹介することができない。

この構造が、AIの回答に奇妙な影響を与え始めている。

だが、それだけではない。

次の章では、さらに深刻な現象を見ることになる。

AIの問題は、
単に「読めないページ」が増えていることではない。

むしろ逆だ。

インターネットには、
これまで以上に大量の文章が存在している。

しかしその多くが、
人間ではなく、AIによって書かれている。

第4章 AIがインターネットを書き換えている

ここまでの話は、ある意味で構造の説明だった。

AIは巨大な検索インデックスを利用している。
しかしそのインデックスには空白があり、
さらにインターネット自体も読みにくくなっている。

だが、実際の変化はもっと直接的だ。

インターネットそのものが書き換えられ始めている。

しかも、その書き手は人間ではない。

AIである。

ここ数年で、生成AIは爆発的に普及した。
ブログ記事、商品レビュー、ニュース要約、SEO記事。
膨大な量の文章が、AIによって生成されている。

これらの文章は、見た目には問題がない。
文法も整っているし、読みやすい。

だが問題は別のところにある。

それらの多くは、一次情報ではない

既存の情報を再構成し、
それらしくまとめ直した文章だ。

つまりインターネットは、いま

人間が書いた一次情報
AIが書いた二次情報
AIが再構成した三次情報

が混ざり合う巨大な海になっている。

この現象は、しばしば

AI Slop

と呼ばれる。

質の低いAI生成コンテンツが
検索結果を埋め尽くす現象だ。

Googleもこの問題を認識している。

近年、検索アルゴリズムは
AI生成コンテンツの評価を厳しくし、
インデックスの整理を進めている。

実際、この変化は
多くのサイト運営者が観測している。

私自身のサイトでも、
Search Consoleのインデックス数が
ゆっくりと減り続けている。

最初は少し驚いた。

記事数は増えているのに、
検索インデックスは減っている。

普通に考えれば、逆のはずだ。

だがアクセスを見てみると、
別の事実が見えてくる。

アクセスは落ちていない。

むしろ平均順位は、
わずかに上がっている。

これは何を意味するのか。

Googleは今、
単にページ数を増やすサイトよりも、

信頼できる情報を持つサイト

を優先している。

言い換えれば、
インターネット全体で

情報の濃度

が再評価され始めているのだ。

AIが文章を大量に生成できる時代では、
単なる文章の量には意味がない。

むしろ重要になるのは、

誰が書いたのか
どんな経験から書かれたのか
その情報は実際に観測されたものなのか

という点になる。

つまりAI時代のインターネットでは、

人間の体験そのものが価値になる。

この変化は、
AIの回答にも影響を与える。

AIが参照するインターネットが
AIによって書かれた文章で満たされていくと、
奇妙な現象が起きる。

AIが書いた文章を
AIが学習し、
AIが再び要約する。

いわば

自己参照のループ

だ。

このループが広がると、
情報の精度は徐々に下がっていく。

AIは嘘をつこうとしているわけではない。
ただ、参照できる情報の質が
ゆっくりと変化しているだけだ。

そしてその結果、
AIの回答にも、
少しずつ歪みが生まれてくる。

ここで、最初の疑問に戻る。

Geminiは、巨大な検索インデックスを持つAIだ。

それでもハルシネーションが
完全には消えないのはなぜか。

その理由は、
AIの能力の問題ではない。

AIが参照しているインターネットそのものが
変化しているからだ。

第5章 Googleが抱える三つの危機

ここまで見てきた問題は、
単にAIモデルの評価の話ではない。

その背後には、
Googleという企業の構造そのものがある。

Googleは現在、三つの危機に直面している。

1 Indexの品質を守れるか

検索エンジンの核心は
インデックスだ。

Googleは長年、
世界中のWebページをクロールし、
巨大な検索インデックスを作り上げてきた。

しかし現在、
この基盤は大きな圧力を受けている。

AIによるコンテンツ生成の爆発である。

ブログ記事
商品レビュー
SEOコンテンツ
ニュース要約

AIはこれらを
ほぼ無限に生成できる。

その結果、インターネットには

AI Slop

と呼ばれる
低品質な文章の洪水が生まれた。

Googleがいま行っている
インデックス整理は、

単なるアルゴリズム更新ではない。

それは

知識基盤の防衛戦

である。


2 広告モデルを守れるか

Googleのビジネスの中心は
検索広告だ。

検索結果に表示される広告は、
Googleの最大の収益源である。

しかしAIには
構造的な問題がある。

AIは質問に対して
一つの回答を生成する。

検索は違う。

検索は

複数のページ

を提示する。

この違いは、
ビジネスモデルに直接影響する。

AIが回答を完結させるほど、
ユーザーはリンクをクリックしなくなる。

つまりAIは

検索広告モデルを侵食する可能性

を持っている。


3 Geminiの評価を守れるか

そして三つ目の問題が
Gemini自身の評価である。

Geminiは強力な知識基盤を持つAIだ。

しかしその一方で、

・インデックス外情報を扱えない
・未検証情報に慎重である
・検索ビジネスとの整合性が必要

といった制約を抱えている。

その結果、

知らない問題に対して
推測回答が増える

という現象が起きる。

そしてベンチマークでは
その部分だけが強調される。

つまりGeminiは、

能力ではなく構造によって
評価を落としている

可能性がある。


ここで重要なのは、
この三つの危機が

別々の問題ではない

という点だ。

すべては一つの基盤に
つながっている。

それが

検索インデックス

である。


最終章 AI文明の水道

ローマ帝国が巨大都市を維持できたのは、
軍隊でも宮殿でもない。

水道だった

遠くの山から水を引き、
都市全体に供給する。

このインフラがあったからこそ、
都市文明は成立した。

AI文明にも、
それに似た基盤がある。

それが

検索インデックス

だ。

AIが知識を扱えるのは、
誰かが情報を集め、
整理し、
信頼性を評価しているからである。

もしこの基盤が崩れれば、

検索は揺らぐ。
広告は揺らぐ。
AIの回答も揺らぐ。

Geminiのハルシネーション問題は、
単なるAIモデルの問題ではない。

それは

知識インフラの問題

なのである。

Googleは今、
AI Slopという洪水の中で
この基盤を守ろうとしている。

それは
単なる検索アルゴリズムの調整ではない。

言ってしまえば、

文明の水道を守る仕事

に近い。

そして、もしその水道が壊れれば、
影響はGeminiの評価だけにとどまらない。

検索も
広告も
AIも

すべてが同時に揺らぐ。

Geminiは無能なのではない。

むしろ逆だ。

最強の知識基盤を背負ったAI

だからこそ、
その構造的な制約が
最もはっきりと表に出ている。

Geminiのハルシネーションは、
AIの失敗ではない。

それは

検索帝国が抱える矛盾

が表面化したものなのかもしれない。