- インド・アーンドラプラデーシュ州のある下級裁判所判事が、不動産紛争事件でAIが生成した虚偽の判決文を引用していた事実が明らかになった
- 最高裁はこれを「制度的懸念」の事案と位置づけ、単なる判断ミスではなく**「職務上の非行(misconduct)」**とみなした
- 当該判事はAIツールを初めて使用し、引用文が本物だと信じていたと述べたが、最高裁は下級審判決の効力を停止した
- インド高等裁判所は当時、判事の善意(good faith)を認めて判決を維持したが、最高裁はAI使用の手続き上の問題を重視した
- 今回の事件はAIが司法手続きに及ぼす影響を浮き彫りにしており、インドだけでなく米国・英国などでも類似事例が報告されている
事件の概要
- インド最高裁は、アーンドラプラデーシュ州ビジャヤワーダのある下級民事裁判所判事が、AIが生成した偽の判例を引用して不動産紛争を裁いた事件を調査している
- 被告側が控訴したことで、事件は最高裁へ移された
- 最高裁はこれを「裁判手続きの信頼性と完全性に直接影響を及ぼす事案」と位置づけた
- 問題の事件は2025年8月に発生し、判事は4件の過去の判例を引用したが、いずれもAIが生成した虚偽文書であることが確認された
下級審と高等裁判所の判断
- 被告は引用された判例が偽であると指摘して高等裁判所に控訴した
- 高等裁判所は、判事が**「善意によるミス」**を犯したと認め、判決自体は維持した
- 「引用文が存在しなくても法理の適用が正しければ、判決を取り消す理由にはならない」と明記した
- 高等裁判所は判事に報告書の提出を求め、判事はAIツールを初めて使用し、自動生成された資料を信頼したと述べた
- 「誤引用や歪曲を意図したものではなく、ミスは自動化された情報源に依存した結果だ」と説明した
- 高等裁判所は「人工知能よりも実際の知能の使用が必要だ」との見解を付け加えた
最高裁の反応
- 最高裁は下級審の判決を**即時停止(stay)し、AI使用を単なる誤りではなく「職務上の非行」**と位置づけた
- 「この事件は判決内容よりも、裁判手続きと判断過程そのものの問題だ」と強調した
- 最高裁は**法務長官、法律顧問、インド弁護士会(Bar Council of India)**に通知し、事件を追加審理することを決めた
AIと司法手続きの衝突
- インド最高裁は最近、弁護士がAIツールを用いて請願書を作成する事例についても懸念を示している
- 法律専門メディアLiveLawによれば、最高裁は「このような行為はまったく正当化できない」と述べた
- インドだけでなく、米国と英国でもAI使用による判決ミスの事例が報告されている
- 2025年10月、米国の連邦判事2人がAI使用により誤った判決文を作成していたことが明らかになった
- 2025年6月、英国高等裁判所は弁護士に対し、AI生成判例の使用禁止に関する警告を発した
インド司法のAI対応
- インド最高裁は2025年に**司法におけるAI活用の白書(white paper)**を公表した
- 白書にはAI使用の指針とベストプラクティスが含まれている
- 最高裁は人間による監督(human oversight)と制度的セーフガードの維持の重要性を強調している
- 今回の事件は、インドの司法制度がAI導入と統制のバランスを模索する過程にあることを示している
1件のコメント
Hacker Newsの意見
AIが人間を代替するという話は誇張されているように思う
結局のところ、責任を負う人は依然として必要で、問題が起きれば誰かが解雇されたり刑務所に入ったりしなければならない
AIは生産性を高めることはできても、人間が完全に抜けたシステムは大惨事や訴訟につながる可能性が高い
だから企業は期待したROIを見られていない
実際、「AIのおかげで生産性が上がった」と言って解雇した事例の多くも、単に業績不振を隠すための言い訳にすぎなかった
AIを単なるツールとして使うなら責任は利用者にあり、もしAIを「他人の仕事」のように扱ったなら、無資格者に委任したことになり、結局は利用者の過失になる
それなのに、その人が責任を問われるのを見たことはほとんどない
LLMが生成したテキストはUnicodeの別ブロックとして表示し、AI生成物であることを明確にすべきだ
それを隠したり改ざんしたりするのは、医師が手を洗わずに手術するのと同じだ
「抑制と均衡」とは言うが、司法は例外というわけだ
MITの報告でも、ほとんどの従業員が会社アカウントではなく個人アカウントでAIを使っているという
「自動化された情報源に依存して生じたミス」という言い訳は通用しない
どんな職業でもLLMで自動化するなら責任は専門家にある
ツールを知らなかったことを理由にツールのせいにするのは、法的にも筋が通らない
認定エンジニアが外注作業に署名だけしていた時代のように、ますます安く速くしようとする中で安全装置が失われる構造になっている
LLMはこうした退行した現実を露わにしたのであって、原因ではない
私もAIは好きだが、責任ある利用が必要だ
ミスと故意は法的に別物として扱われるべきだ
こうしたことが繰り返されるなら、ツール自体を調整しなければならない
利用者が毎回間違っていたとしても、同じ問題がシステムとして繰り返し起きるなら、結局はツール設計の問題だ
それを知らなかったというのは怠慢か無能だ
弁護士たちはいつになったら、LLMの言うことを自分で検証しなければならないと気づくのだろうか
自動運転車のように「必要なときだけ介入せよ」という構造は、人間の注意力の限界のせいで失敗するほかない
「人がもっとしっかり確認すべきだ」というアプローチは現実には機能しない
そこが最も危険だ
弁護士だけの問題ではない
最高裁が「人工知能より実際の知能を発揮せよ」と勧告したという話が印象的だ
結局、偽の引用だらけの論文が増えていきそうだ
AIがこうした資料で学習すれば、インターネットでは本物の情報より幻覚情報のほうが多くなる危険がある
米国と英国でも同じような問題が起きている
弁護士たちは技術に弱く、チャットボットが作った文書を自分で修正しているため、エラーは避けられない
関連事例はDoughty Streetレポートでも扱われている
法律システムそのものが不要な定型文(boilerplate)をあまりにも多く生み出している
弁護士たちも全部は読まず、必要な部分だけを拾い読みする
AIを無責任に使うのは問題だが、これは法律文書の構造を単純化する機会でもある
法はコードとは違うが、過度に複雑な構造には改善の余地がある
単純化すると、かえって解釈の余地が広がって紛争が増える
法律用語(legalese)は結局、疑義を減らすための装置なのだ
根本的な単純化なしに装飾だけが積み上がってきた構造だ
この問題はあらゆる産業で大きくなっていくだろう
私はフィンテック分野で対策を研究しているが、Resemble AIのアプローチが最も実用的だ
単なるテキストだけでなく、AI音声クローン検知とウォーターマーキングが中核だ
後追いで対応し続けなければならない現実は楽ではない
「自動化された情報源に依存したミス」という言い訳は、まるで
「銃が自動式だから人が死んだのは私のせいではない」と言うのと同じだ
次トークン予測と幻覚は単なるバグではない
信頼性と完全性が重要な領域でこうした問題を放置するのは非常に危険だ