LLMが「知らない」と言えない理由と、言えることの価値

LLMが「知らない」と言えない理由と、言えることの価値 TECH
LLMが「知らない」と言えない理由と、言えることの価値

生成AIに対して、私は長いあいだ、同じことを言い続けてきた。

知らないことは、知らないと言え。

いま振り返れば、それは奇妙な要求だったかもしれない。
GPT-3が登場した当時、世の関心はただ一つ、
「どこまで賢くなったか」「どれだけ答えられるか」にあった。

万能論の時代だった。

AIは何でも知っていて、
何でも答えられて、
人間を置き換える存在になる──
そう信じたい空気が、市場にも、メディアにも、開発現場にも満ちていた。

その中で「分からないと言え」という要求は、
あまりにも地味で、あまりにも水を差すものだった。

実際、評価されることはなかった。
「役に立たない」「弱い」「夢がない」。
そんな反応の方が多かった。

それでも、繰り返し言い続けた。
理由は単純で、それができないAIは、必ず事故を起こすと分かっていたからだ。


時代は流れ、LLMは飛躍的に進化した。

文章は自然になり、
推論は長くなり、
破綻は減った。

だが皮肉なことに、
性能が上がるにつれて、
「知っているふりをする危うさ」が、より目立つようになった。

かつては未熟さゆえの嘘だったものが、
いまや設計と期待が生む嘘に変わりつつある。

そして生成AIは、
遊びや実験の領域を越え、
医療、法務、インフラ、業務判断といった
人の生死や責任に関わる場所へ入り始めた。

ここでは、もはや「AIが間違えた」では済まされない。

問われるのは、

  • なぜ止まらなかったのか
  • なぜ断定させたのか
  • なぜ「知らない」と言わせなかったのか

という、設計そのものだ。


本稿は、AI倫理を語るための文章ではない。
また、特定の企業やモデルを擁護する意図もない。

これは、

  • LLMはいま何につまずいているのか
  • どこを変えれば改善できるのか
  • そして「知らない」と言えることが、なぜ価値になるのか

を整理するための、設計の話である。

あの頃は、ただ虚しい正論だった。
だがいま、「知らないと言えるAI」は、
ようやく現実的な要件になり始めている。

遅すぎるかもしれない。
それでも、避けては通れない。

この文章は、
その地点を確認するための記録だ。

第1章:LLMが「知らない」と言えないのは、技術的制約ではない

最初に、はっきりさせておく。

LLMが「知らない」と言うこと自体は、技術的に難しくない。

モデルは内部的に、次のような状態をすでに持っている。

  • 文脈が不足している
  • 学習範囲外である
  • 最新情報かどうか保証できない
  • 複数の仮説が競合している

これらはすべて、確率分布や信頼度として内部に現れている。

つまり、

「分からない」という判断材料は、すでにモデルの中にある。

それを出力として表現しないだけだ。

実装上も難所ではない。

  • 不確実な場合に断定口調を抑制する
  • 回答を保留し、追加情報を要求する
  • あるいは、明示的に「分からない」と返す

特に重要なのが、次の一点だ。

「I don’t know」トークンを強化学習で報酬化する

これは古くから知られている方法であり、
研究的にも実装的にも新規性はない。

それでも長らく採用されてこなかった。

理由は明確だ。
技術ではなく、人間側の評価と期待が、それを拒んできた。

第2章:なぜ「知らない」が抑圧されるのか

──評価・習慣・商売という三つの圧力

LLMが「知らない」と言えない理由は、
モデルの能力不足ではない。
人間側の三つの圧力が、それを許さなかった。

1. 評価の問題──「正直さ」は点にならない

長らくLLMは、次のような指標で評価されてきた。

  • 正答率
  • 情報量
  • 有用性
  • 流暢さ

ここに決定的な欠陥がある。

「分かりません」と答えたAIは、
たとえ正直でも、スコアが伸びない。

回答が短くなり、
情報を提供していないように見え、
「役に立たない」と判断されやすい。

結果として、
正直な沈黙より、危うい断定の方が高く評価される

これは評価設計の歪みだ。


2. 習慣の問題──人間が“知ったかぶり”を学習させる

強化学習(RLHF)の過程では、
人間が「良い回答」「好ましい回答」を選ぶ。

ここで起きる現象は単純だ。

  • 断定的
  • 具体的
  • 自信がある

こうした回答は、
無意識に「良い」と評価されやすい。

一方で、

  • 「判断できません」
  • 「情報が不足しています」

といった回答は、
誠実であっても選ばれにくい

その結果、

人間がAIに、
“知らなくても答えろ”と教えてしまう。

これはGPT-3時代に顕在化した問題であり、
決して新しい話ではない。


3. 商売の問題──“賢く見せたい”という誘惑

最後に、もっとも根深い要因がある。

プロダクトとしての都合だ。

  • 無料体験では満足度を下げたくない
  • 有料との差を露骨に見せたくない
  • 「このAIは賢い」と感じさせたい

この条件下で、

  • 「分かりません」
  • 「未確認です」

が頻発すると、
体験は一気に地味になる。

その結果、

「知らない」と言わせない設計
が、暗黙の最適解になる。

これは技術判断ではない。
マーケティング判断だ。


小結:これはAIの欠陥ではない

ここまでを整理すると、結論は明確だ。

  • 技術は対応可能
  • モデルは判断材料を持っている
  • それでも「知らない」が出てこない

理由は一つ。

人間社会が、それを“価値”として扱わなかった。

LLMが「知らない」と言えないのは、
AIが未熟だからではない。

人間が、正直さを評価しなかったからだ。

第3章:万能論は終わった。これからは「止まれるAI」が勝つ

かつて生成AIは、「どこまで答えられるか」を競っていた。
できるだけ多く、できるだけ速く、できるだけ断定的に。

しかし、その競争はすでに限界を迎えている。

理由は単純だ。
AIが関わる領域が、もはや“間違っても許される場所”ではなくなったからだ。


「賢さ」よりも「止まれるか」が問われる場面

生成AIは今、次のような用途に入り始めている。

  • 医療・診断支援
  • 法務・契約レビュー
  • インフラ運用・監視
  • 業務プロセスの自動化(エージェント)

これらの領域で、最も危険なのは何か。

誤答そのものではない。
誤答を“確信をもって出すこと”だ。

ここでは、次の能力が決定的になる。

  • 判断不能なときに停止できる
  • 情報不足を検知できる
  • 人間に判断を戻せる

つまり、

「知らない」と言えること自体が、機能になる。


エージェント化が進むほど、沈黙は価値になる

特にエージェント用途では、
LLMは「答える存在」ではなく
判断フローの一部になる。

このとき、

  • すべてを自動で完結させるAI
    よりも
  • 危険な場面で止まるAI

の方が、圧倒的に使いやすい。

なぜなら、

  • 止まらないAIは事故を起こす
  • 止まれるAIは責任を分離できる

からだ。

ここで評価軸が反転する。

賢く答えるAIより、
正しく止まるAIの方が価値を持つ。


「知らない」を言えないAIは、もう万能ではない

かつてのAI万能論では、

  • 分からなくても答える
  • 空白を埋める
  • 推測を事実のように語る

ことが、強さと誤解されていた。

しかし今、その振る舞いは
危険な欠陥として認識され始めている。

  • 誤判断の連鎖
  • 責任の所在不明
  • 「AIが暴走した」という言い訳

これらはすべて、
止まれなかった設計が生む。


小結:万能である必要は、もうない

LLMに求められているのは、

  • すべてを知っていること
    ではなく
  • 知らないことを正しく扱えること

万能であることよりも、
安全に不完全であること

これが、現在のLLMに突きつけられている
現実的な要件だ。

第4章:「知らない」と言えることが持つ、実務的な価値

ここまでで明らかになったのは、
「知らない」と言えないことがリスクになる、という点だ。

では逆に、
LLMが「知らない」と言えるようになると、
何が変わるのか。

結論から言えば、
それは倫理的な美談ではなく、実務上の価値に直結する。


1. 事故が減る──最も単純で、最も大きな効果

「知らない」と言えるAIは、
事故を起こしにくい

  • 情報不足のまま判断しない
  • 推測を事実として提示しない
  • 危険な場面でフローを止める

これは当たり前の話だが、
実際のシステム設計では、
この“当たり前”が最も実装されてこなかった。

誤答そのものより、
誤答を断定することが事故を生む。

それを防げるだけで、
LLMの信頼性は一段階上がる。


2. 責任分界が明確になる

「知らない」と言えるAIは、
責任の境界線を可視化する

  • どこまでがAIの判断か
  • どこからが人間の判断か
  • どの時点で人に戻したのか

これがログとして残る。

結果として、

  • AIが勝手に判断した
  • 想定外の暴走だった

といった曖昧な説明は通用しなくなる。

これは企業にとって不利ではない。
むしろ、

説明責任を果たせる設計

として、
法務・監査・運用の面で大きな武器になる。


3. 人間の判断が尊重される

皮肉なことに、
「知らない」と言えるAIほど、
人間の判断を軽視しない

  • 分からないときは戻す
  • 判断材料が足りないと伝える
  • 結論を押し付けない

これにより、

  • AIに振り回される
  • AIの結論に従わされる

という感覚が減る。

LLMは「決定者」ではなく、
補助者として正しい位置に戻る


4. 信頼は“積み上がる”

最も重要なのは、ここだ。

断定的で派手なAIは、
短期的には便利に見える。

しかし、

  • 一度でも大きく外す
  • 「調べたフリ」を見抜かれる

と、その信頼は一気に崩れる。

一方で、

  • 分からないときに止まる
  • 慎重な姿勢を崩さない

AIは、
使うほどに信頼が積み上がる。

これは数値化しにくいが、
長期運用では決定的な差になる。


小結:「正直さ」はコストではない

ここまで見てきた価値は、
すべて現実的で、地味だ。

  • 派手さはない
  • デモ映えもしない

それでも、

「知らない」と言えることは、
LLMを“社会の道具”にするための条件

になる。

これは理想論ではない。
運用上の要件だ。

終章:賢いAIより、正直なAIへ

生成AIは、ここ数年で驚くほど賢くなった。
推論は深くなり、言葉は滑らかになり、
かつての破綻は減った。

それでも、なお残る違和感がある。

「知っているふりをするAI」だ。

これは能力不足ではない。
むしろ逆で、能力が上がったがゆえに目立つ欠陥だ。


「AIが暴走した」という言い訳は、もう通用しない

人の生死や責任が関わる場面で、

AIが暴走した
想定外だった

という説明は、成立しない。

問われるのは常に、

  • なぜその設計を許したのか
  • なぜ止まらせなかったのか
  • なぜ「知らない」と言わせなかったのか

AIは暴走しない。
暴走させる設計と運用があるだけだ。


これからの改善は「賢さ」ではない

LLMの未来は、

  • パラメータを増やすこと
  • 推論を長くすること

だけで決まらない。

むしろ重要なのは、

  • 断定しない勇気
  • 判断不能を検知する設計
  • 正直に沈黙する能力

その象徴が、次の一文に集約される。

「I don’t know」トークンを強化学習で報酬化する

これは小さな変更に見える。
だが意味は大きい。

それは、

  • AIに正直さを教える
  • 人間側が沈黙を評価する
  • 社会が安全を選ぶ

という宣言に等しい。


完全なAIは不要だ

必要なのは、

  • すべてを知っているAI
    ではなく
  • 知らないことを正しく扱えるAI

賢く答えることより、
間違えない場所で止まること

それができて初めて、
LLMは「便利なおもちゃ」から
信頼できる道具になる。


最後に

この話は、
OpenAIや特定のモデルを擁護するためのものではない。

いまのLLMが直面している、共通の課題だ。

そしてその解決は、
新しい魔法ではなく、
驚くほど地味な一歩にある。

知らないことは、知らないと言う。

この当たり前が、
ようやく現実的な要件になった。

賢さの競争を終え、
正直さの実装へ。

それが、LLMの次の進化だ。