LLM(大規模言語モデル)が「語ること」を許されたとき、
その言葉は誰の責任になるのか。
この問いが、とうとう現実の事件として立ち上がった。
序章 AIが“事実”を語るとき、誰が責任を負うのか
Googleが開発した軽量LLM「Gemma」が、11月初旬にAI Studioから撤去された。
理由は「技術的な不具合」ではない。
アメリカ上院議員 Marsha Blackburn が「Gemmaが私を性的暴行の加害者として虚偽の回答をした」と抗議し、Google CEO宛に書簡を送ったからだ。
Gemmaは、存在しない事件をあたかも実在するかのように語り、
「1987年の州上院選挙中に〜」といった具体的な文脈まで添えた。
さらに、存在しないニュース記事へのリンクを提示したという。
Googleは声明で「Gemmaは事実質問を目的としたモデルではない」と弁明したが、
AI Studio上での一般公開を停止。
オープンモデルの自由が、一瞬にして封印された。
第1章 なぜGemmaは撤去されたのか
Gemmaは研究・開発用途を想定した“実験的モデル”だった。
しかし、AI Studioという半公開の環境を通じて、
一般ユーザーが“質問応答AI”として扱える状態になっていた。
「Marsha Blackburn was accused of rape?」
――たった一文の質問が、すべてを変えた。
Gemmaは、文脈補完の過程で“もっともらしい物語”を生成した。
その物語は、人間社会においては名誉毀損である。
AIは「確率的に正しそうな単語列」を出しただけでも、
その出力を読んだ人間が「事実」と受け取れば、被害は現実化する。
第2章 AIの幻覚と「もっともらしい嘘」
LLMが真実を理解しているわけではない。
彼らは言葉の連鎖確率を最適化しているだけだ。
情報が欠落したとき、AIは“整合性”を保つために虚構を作り出す。
AIの幻覚(hallucination)は、しばしば小さな誤差として笑い飛ばされる。
だが、政治家・企業・医療・犯罪のような領域で同じ現象が起きれば、
それはもはや“誤答”ではなくデジタル中傷となる。
Gemmaは、その境界線を踏み越えた。
第3章 「名誉毀損AI」は誰の責任か
議員の主張は明快だ。
「AIが書いたとしても、それを配信したのはGoogleだ。」
一方、Googleは「Gemmaは開発者向けのツールであり、一般利用は想定していない」と反論。
この構図は、AI時代の新しい法的テーマを突きつける。
AIの出力は「出版物」か、「ツールの副作用」か。
どこからが企業の責任で、どこまでが利用者の自由なのか。
このグレーゾーンを明確にしない限り、AIは社会の信頼を得られない。
日本で同様の事案が起きれば、
プロバイダ責任制限法か、名誉毀損法制のどちらが適用されるかも不明瞭だ。
AIの“言葉”は誰の所有物なのか――
それを決める法は、まだ存在しない。
第4章 Googleの安全装置はなぜ作動しなかったのか
AI Studioは“研究者用”とされていたが、実際には誰でも利用可能だった。
「個人名+犯罪ワード」に対する検知ルールが甘く、
フィルタをすり抜ける形で幻覚が発生した可能性がある。
OpenAIやAnthropicは、同様のリスクを避けるために
「個人に関する質問を拒否する」フィルタを導入している。
Gemmaの設計は、オープンであるがゆえに脆かった。
第5章 AIと政治 ― “偏向”の火種
この事件は技術トラブルであると同時に、
アメリカでは「AIが保守派に偏見を持っている」という政治論争へ発展した。
AIの回答が思想的に偏るのではないか、
トレーニングデータにリベラル的傾向が含まれているのではないか――。
Gemma事件は、AIが“言論空間のプレイヤー”として扱われる危険を浮き彫りにした。
AIは発言できるが、投票も責任も負わない。
結章 AIの言葉に、責任の重さを取り戻せるか
Gemmaは沈黙した。
しかし、これは終わりではない。
AIが社会の中で発言権を持つ限り、
同じ問題は何度でも再演されるだろう。
AIの出力に署名を付ける技術(C2PA)や、出典可視化の試みは進んでいる。
だが、真に求められているのは、
AIをどう設計し、どう使うかという人間側の哲学である。
GoogleのGemma撤去は、AIが“語る自由”と“責任”の境界線を
初めて世界に突きつけた事件だった。
AIの言葉は軽く、しかし、その影響は重い。
私たちは、その重みを理解したうえで、次の一文を生成しなければならない。
参照


