人々は何に怒っているのか
OpenAIのペンタゴン契約をめぐり、解約運動や批判が起きている。

AIの軍事転用そのものに怒っているわけではない。
そんなものは昔から存在する。
ミサイル
衛星
インターネット
GPS
先端技術は必ず軍事に使われる。
それを止めることはできないし、人類の歴史もそう動いてきた。
Mistralでも
Qwenでも
DeepSeekでも
国家が望めば、軍事転用は必ず起きる。
この現実を否定する人は少ない。
「では人々は何に怒っているのか。」
答えはもっと単純だ。
AIに人を殺させるな。
これである。
人類の戦争には、暗黙の前提があった。
どれほど高度な兵器でも
引き金を引くのは人間である。
核兵器もそうだ。
ミサイルもそうだ。
ドローンですら、最終判断は人間が行う。
残酷だが、人類はこういう構造で戦争をしてきた。
「殺すなら、自分で殺す。」
つまり人類は、暴力の責任を自分で引き受けてきた。
AIはこの構造を変える。
AIは単なる兵器ではない。
判断装置たりえるからだ。
標的の識別
攻撃の優先順位
作戦判断
これらをAIが担うことは、技術的にすでに可能になりつつある。
ここで初めて、人類は未知の領域に入る。
誰が引き金を引いたのか分からない戦争である。
戦争が終わる。
都市が破壊される。
民間人が死ぬ。
さて、誰を裁くのか。
将軍か。
政治家か。
兵士か。
企業か。
プログラマーか。
あるいはAIか。
ここで問題が現れる。
AIは裁けない。
AIは人格を持たない。
責任主体でもない。
すると責任はこう拡散する。
軍は言う。
「AIの判断だった。」
企業は言う。
「我々はツールを作っただけだ。」
政治は言う。
「技術的判断に従った。」
そして最終的に、責任はこう収束する。
AIがやった。
ここでAIはスケープゴートになる。
本当は人間が決めた戦争なのに、
責任の矛先はアルゴリズムに向く。
これは文明として極めて危険な構造だ。
なぜなら戦争の抑止力の一つは
責任が個人に帰属することだからだ。
ニュルンベルク裁判が成立したのは、
誰が命令したかを特定できたからだ。
しかしAIが判断する戦争では、
その線が曖昧になる。
だから人々は怒っている。
AIの軍事利用にではない。
技術そのものにもではない。
怒りの正体はこれだ。
人間が責任から逃げる構造に対する嫌悪。
ここで一つの原則を思い出さなければならない。
AIは道具である。
陳腐な比喩だが、
包丁は人を殺さない。
人を殺すのは、包丁を握る人間だ。
AIも同じだ。
AIは判断するかもしれない。
しかしAIが戦争を始めるわけではない。
戦争を始めるのは
いつも人間だ。
だから本当に守るべき一線はこれだ。
AIに銃把を握らせるな。
もし銃が撃つなら
人間が撃て。
そして撃った責任を
人間が負え。
文明は、その覚悟の上にしか成立しない。

