- 2026年2月、米軍がイラン・ミナーブの小学校を爆撃し、175人以上が死亡。当初はAnthropicのClaudeが標的を選定したという誤報が拡散した
- 実際に標的決定を行っていたのはPalantirのMavenシステムであり、古い軍事データの更新失敗が民間人被害につながった
- Mavenはキルチェーン手順を自動化し、1時間に1,000件の標的を決定できるほど速度を高め、その過程で検証と再評価の段階が削除された
- こうした自動化は、過去のベトナム戦争・コソボ紛争での誤爆事例と同様に、技術への信頼が人間の判断を置き換えた反復的な構造問題につながっている
- 事件の核心はAIの誤りではなく、判断を排除した官僚的システムと人間の責任の消滅にある
イラン・ミナーブの小学校爆撃と「AI責任論」という虚構
- 2026年2月28日、米軍がイラン南部ミナーブのShajareh Tayyebeh小学校を爆撃し、7〜12歳の女子児童を含む175〜180人が死亡
- 爆撃直後、メディアと政界はAnthropicのチャットボットClaudeが標的を選んだのかに注目した
- しかし実際の標的選定システムはPalantirのMavenであり、Claudeは無関係だった
- この学校は過去には軍施設だったが、情報更新の失敗により依然として軍事目標に分類されていた
Mavenシステムの起源と構造
- Mavenは2017年、米国防総省のAlgorithmic Warfare Cross-Functional Teamから始まったプロジェクト
- 当初の目的はドローン映像分析の自動化で、人間の分析官の過重な業務を減らすことだった
- 最初はGoogleが契約を担ったが、社内の反発で撤回し、その後Palantir Technologiesが2019年から開発を主導した
- Mavenは衛星・信号・センサーデータを統合し、目標探知から攻撃命令までをつなぐターゲティング・インフラへと発展した
- PalantirはMavenを**「Smart System」**として再構成し、リアルタイムのデータ融合と自動化された意思決定支援機能を統合した
- MavenのインターフェースはKanban型ワークフローボードで構成され、標的が段階ごとに移動しながら処理される
- 3回のクリックで探知データを正式な標的に変換でき、システムが攻撃手段と兵器の組み合わせを推奨する
「キルチェーン」の圧縮と速度競争
- Mavenは**「キルチェーン(Kill Chain)」**と呼ばれる軍事手順の最新の圧縮形態だ
- キルチェーンは探知から破壊までの手順を体系化した概念で、米軍は数十年にわたりこれを短縮する技術を開発してきた
- Mavenは決定速度を極端に高めるシステムで、2024年時点で1時間に1,000件の標的決定を目標としていた
- これは3.6秒に1件、個人ベースでは72秒ごとに1件の決定を下す速度にあたる
- 2003年のイラク戦争では、かつて2,000人が担っていた標的業務を20人に置き換えた
- 速度向上は判断の余地を奪い、検証・異議申し立て・再評価の過程が消滅した
- その結果、誤判断の可能性の増大と民間人被害の拡大につながった
歴史の反復: 技術への信頼と判断の消滅
- Mavenの問題は新しい現象ではなく、技術的自動化が判断を置き換えた歴史的パターンの反復である
- 1960年代のベトナム戦争におけるOperation Igloo Whiteでは、センサー基盤の標的システムが誤作動し、虚偽の成果を量産した
- CIAは「破壊されたトラック数」が実在台数を上回ったと報告し、自己検証不能なシステムの閉鎖性を露呈させた
- 第二次世界大戦の精密爆撃ドクトリンも効率性に固執するあまり目標の意味を失い、**「技術的狂信(technological fanaticism)」**と呼ばれた
- 米空軍の1998年の標的マニュアルは**「事実と結論に基づく理性的思考」**を強調していたが、
- 実際の作戦では**PowerPointベースの「標的パッケージ(TIP)」**が検証なしに循環引用(circular reporting)で確定された
- 1999年のコソボ紛争では中国大使館誤爆事件が、このような手続き上の誤りの代表例として記録されている
判断の排除と「官僚的ダブルバインド」
- 組織は規則に従いながらも、例外を解釈する判断者を必要とするが、
- 判断を認めれば規則の権威が揺らぐため、判断を数値化・手続き化しようとする
- 歴史学者Theodore Porterはこれを「数字への信頼(Trust in Numbers)」と名づけた
- PalantirのCEO Alex Karpは著書 The Technological Republic で
- 「ソフトウェアが舵取り役であり、ハードウェアはAIの勧告を実行する手段」と記している
- 人間の中間判断を排した**「自律的集団行動(bee swarm)」モデル**を理想として提示した
- しかしこれは解釈の余地が消えた完全な手続き化、すなわち**「壊れやすい官僚制」**へと帰結する
- 会議・報告・レビューの過程は非効率ではなく、判断が介入する唯一の地点だったが、
- MavenはこれをソフトウェアのワークフローKanbanボードに置き換え、判断の余地を排除した
ミナーブの学校爆撃の構造的原因
- 標的パッケージには当該建物が軍事施設として分類されており、
- 実際にはGoogle Mapsとイランの商用データベースで学校として登録されていた
- しかし1,000件/時間の意思決定速度の中では、誰もそれを検索したり検証したりしなかった
- 議会承認なしに2週間で6,000件の目標を攻撃し、そのうちの一つが小学校だった
- 事件後の議論は**「Claudeの誤り」**に集中し、
- 戦争の合法性、議会承認の有無、戦争犯罪の可能性といった核心的な政治的・法的責任が覆い隠された
- 「AIの問題」というフレームは、人間の決定と責任を隠蔽する逃避先として機能した
- 誰かがキルチェーンを圧縮し、熟慮を**「遅延(latency)」**と見なし、
- 1時間に1,000件の標的決定を「高品質」と呼ぶシステムを設計した
- これらすべての決定を下したのは人間であり、AIがその責任を肩代わりすることはできない
1件のコメント
Hacker Newsの意見
Mavenは、まさに戦争のただ中で使うために作られたツールだ
交戦中であれば、数分の時間短縮がそのまま命を救うことにつながる
しかし今回の攻撃は、交戦中ではない奇襲攻撃だった。誰も反撃していない状況で、時間を節約したからといって命を救ったわけではない
目標の識別はもっと慎重に行うべきだったし、人間が何度も検証すべきだった。学校は明らかに学校で、ウェブサイトまで存在していた
わずか3回のクリックで次の目標に進んだのは、明らかな人為的過失だ。こうしたミスを防ぐ時間は十分にあった
ツールへの過信であれ、民間人の命の軽視であれ、その結果は少女たちの死だった
こうした判断を下した人には、必ず責任を負ってほしい
アメリカは国家の不安定化を目的に戦争を始め、その過程で民間人被害を無視してきた
まるで自分で家に火をつけておいて、あとから「そこが幼稚園だったとは知らなかった」と言い訳するようなものだ
かつての「対テロ戦争」の時代にも、結婚式場を爆撃して「ミスだった」とされた事例は多かった
しかし、こうしたオンライン情報は目標選定の信頼できる根拠ではない
衛星観測など、より直接的な情報で識別すべきだった。学校には一定の活動パターンがあり、軍事施設とは異なって見えたはずだ
おそらく基地全体を1つの単位として指定する中で、学校の建物を基地の一部と誤認したのだろう
命令が下った後には時間的な圧力があった可能性もある。いずれにせよ、今回の件は悲劇だ
何千回もの出撃の中で1回だけの誤爆であれば、エラー率は低い方かもしれないが、今回は明白な失敗だ
ただし、「十分に検討されなかった」という主張の根拠は弱い。実際、内部関係者はこの目標が除外対象であるべきだったと述べている
この奇襲攻撃という性質ゆえに、責任は全面的に計画者・承認者・実行者にある
「なぜ子どもたちが学校にいたのか」という問いは無知の産物だ。イランは週末の体系が異なり、奇襲攻撃を予測することなどできなかった
lethal forceを安易に使うほど、罪のない被害者は増えていく
また、WhatsAppのメタデータで成人男性の位置を追跡して攻撃したというイスラエルの事例もある
こうしたやり方は20年前と何も変わっておらず、いつか私たちの家にもそうした爆弾が落ちてくるかもしれない
数週間前にも似たようなことがあった
アメリカとイスラエルがイランの警察施設を攻撃する中で、名前に「Police」が入っている**テヘランの公園(Police Park)**を爆撃した
実際にはただの一般的な公園だった
関連動画、追加ソース
AIに「テヘランの警察施設を100か所列挙せよ」と指示したら、こういう結果になりそうだ。AIが目標選定に使われた状況証拠は濃厚だ
アメリカは道徳的・倫理的に破綻した国家だから、こうしたことが繰り返される
Amiriyah shelter bombingもその一例だ
記事で「AnthropicのClaudeが学校を目標に指定した」と初めて書かれていた
これまでは、AIの利用というより古い手続きと情報の誤りが原因だという報道が多かった
ClaudeはAmazon Bedrock上で実行できるが、その場合はAnthropicが直接運用するAPIではなく、顧客のデータセンター内でモデルが動作する
Palantirのようなベンダーはどのモデルを使うか選べるので、Bedrock経由でClaudeを使っていた可能性はある
Anthropicはこうした契約ではテレメトリアクセス権を持たないため、実際にどう使われたかを証明できない
結局、「Claudeが使われた」という話は、技術的には正しい可能性も誤りの可能性もあるレッドヘリングだ
記事の筆者が、先に自分のSubstack記事でこのテーマを扱っていたことも触れておく価値がある
本当にAIのせいだと信じていた人はいたのだろうか?
現代の軍隊では、LLMは責任逃れのための道具として使われることが多い
明確な目標があったなら、文書化されたリストが用意されていたはずだ
しかし今は、「できるだけ多く爆弾を落として、あとはコンピュータがうまくやるだろう」というようなアプローチになっている
戦略目標より殺傷そのものが優先されている現実だ
記事の内容は興味深かった
「米軍は観測と破壊の間のギャップを縮めようとしてきた」という一文はややバイアスがあるようにも見えるが、**戦争の霧(fog of war)**がどれほど濃くなっているかをよく示している
冒頭の数段落は、むしろ新鮮に感じられた
「AI-washingが、いまや解雇だけでなく戦争にも使われる」という点が印象的だった
昔は神、次に自然、そして今はAIだ
人間は自分の行為に対する責任回避という根本的な問題を抱えている
産業化とコンピュータの時代全体が、もしかするとその責任を永続的になくそうとする試みのようにも見える
結局どんな場合であれ、アメリカの戦争犯罪は正当化できない
まともな謝罪すらできない現実が、後になって振り返る歴史の分岐点になるのかもしれない