司法におけるAI活用の必然性──歪んだ“正義”を超えて

AI judges TECH

1. はじめに──誰のための司法か?

近年、日本の司法が見過ごしてきた「静かな不正義」が、社会の根幹を蝕んでいる。例えば、外国人被疑者の不起訴が“言語の壁”を理由に黙認されるケース。被害者は声を失い、加害者は法の網をすり抜け、社会には不信と不満が残る。

司法とは本来、「正義の実現」であるはずだ。しかし今、司法はその使命を果たしきれていない。人間の限界と制度の歪みが、そこに横たわっている。

この課題に正面から挑む手段が、AI──人工知能である。

2. 現代司法の構造的な限界

・言語と文化の壁

通訳が不完全なまま調書が作られたり、供述の真意が伝わらないことで、外国人被疑者が不起訴となる事例が後を絶たない。これは法の平等を著しく損なう行為であり、国家の正義が崩れている証拠だ。

近年では、外国人犯罪による文化的摩擦、治安不安、そして被害者感情を無視した不起訴処理──これらの積み重ねが社会の分断と復讐感情の蓄積を招いている。例えば、凶悪事件であっても「言語の壁」や「処罰感情の確認困難」を理由に不起訴となる事例が報道され、被害者遺族が置き去りにされている。これでは国家が本来引き受けるべき“復讐の代行”という役割を果たしているとは言い難い。

・属人的な裁定

判決は裁判官の思想や気分、経験に大きく左右される。ある判事なら有罪、別の判事なら無罪──そんな「運頼み」の裁判がまかり通っている。法の下の平等はいったいどこへ?

・司法のブラックボックス化

手続きは複雑で閉鎖的。一般市民がアクセスしにくく、説明責任も十分果たされていない。司法はいつから、国民の“手の届かない場所”になったのか。

・起訴率の急落と「嫌疑不十分」処理の増加

法務省検察統計(1993年〜2023年)によれば、起訴人員数がほぼ横ばいで推移している一方で、不起訴人員数は年々増加。特に2000年代後半以降に顕著となり、近年では起訴件数を大きく上回る年も見られる。起訴率はこの30年で半減し、検察が起訴判断を保留する「嫌疑不十分」事案が急増している。

この背景には、警察・検察双方の人手不足や、捜査時間の限界があるとされる。つまり、AIが理性的な判決を下すとしても、その“材料”となる証拠が不足していれば、どれほど優れたAIでも判断を下すことはできない。

また、起訴を前提とした「立証責任」が重いため、曖昧な供述や不十分な証拠しか得られない場合には、極めて重大な犯罪であっても不起訴になる可能性がある。これが国民にとっては“裁かれない加害者”として映り、正義の空洞化を助長している。

3. AIが司法にもたらす変革の可能性

・AI通訳・多言語支援

リアルタイム翻訳と法的ニュアンスの補正が可能なAI通訳があれば、供述の正確性と被疑者の理解が飛躍的に向上する。

・判例データとの整合判断

過去の数十万件の判例と照合して、公平性・妥当性の高い量刑を提示できる。主観ではなく「構造的整合性」で裁けるのがAIの強み。

・即時処理と負担軽減

軽微な事件(交通違反、行政処分など)はAIで迅速に判断。人間の裁判官は、重大案件への集中が可能になる。

・司法文書の機械可読化

判決理由や調書を誰にでも理解できるよう翻訳・整理。司法が国民の手の中に戻る。

4. 海外の先進事例──“もう始まっている”

・エストニア:AI判事が小額訴訟を処理

訴額7000ユーロ以下の事案をAIが判決。異議申し立てがなければそのまま確定。処理スピードと公正さを両立。

・中国:スマートコート導入

顔認証、電子証拠、AIによる判決文生成など、広範な自動化が進行中。専属AI判事がすでに実務稼働している例もある。

・ドバイ:ブロックチェーン司法

証拠・契約・記録が改ざん不能の形で管理され、AIと連携。司法に対する信頼性が制度的に担保されている。

・米国:量刑支援AI「COMPAS」

被疑者の再犯可能性をAIが数値化し、量刑判断の一助とされている。倫理的批判もあるが、量刑の予測精度や一貫性を高める手段として活用が進んでいる。

5. 人間 vs AI──「正義の執行者」はどちらか?

項目人間裁判官AI裁判官
判断速度遅い(渋滞)即時処理可能
感情の影響大(怒り・同情・疲労)感情なし
公平性個人差あり判例に基づき一貫性を保てる
記憶・照合力限界あり数十万件の過去判例と即照合可能

「人間だからこそできる裁き」は幻想だ。実際には、AIの方がはるかに“理性的な正義”に近づける。

6. 倫理的反発と制度的障壁──それでも導入すべき理由

当然、反対意見はある。倫理的な不安、職の喪失、AIの暴走リスク。だが、それらは「理屈」ではなく「感情」から来ている。欧州では「AIによる法判断」に対する懸念に対応するため、AIの利用透明性や説明責任を法的に担保する法整備(AI Act)が進行中だ。

むしろ問うべきは、

人間の裁きは、本当に“安心できるもの”だったか?

冤罪、偏見、不起訴による司法の空白──そのすべてに、AIは是正の可能性をもたらす。司法関係者の既得権益よりも、被害者と社会の“納得”こそが優先されるべきではないか。

7. 終わりに──“正義”の座を、AIに委ねる覚悟はあるか?

中世ヨーロッパの魔女裁判、ドレフュス事件、現代の冤罪事件。いずれも、人間の感情と偏見が“正義”を歪めた歴史だ。

AIは万能ではない。だが、私たちは今、「不完全な人間」による裁きで日々痛みを受けている。

裁きは、聖域ではなく“システム”だ。ならば、より優れたシステムに委ねる選択肢を持つべきだろう。

司法は変わらねばならない。そしてその先頭には、人間の代わりにAIが立つ時代が来る。

それは、恐るべき未来ではない。 それこそが、「正義の再構築」なのだ。