- 米国戦争省がAnthropicを国家安全保障に対するサプライチェーン上のリスク要因に指定し、同社はこの措置が法的に正当ではないとみて法的対応を準備中
- 戦争省の書簡では、Claudeモデルの使用制限の範囲は非常に狭く、戦争省の契約と直接関係する顧客の利用にのみ適用される
- 関連法(10 USC 3252)は政府保護の目的で存在し、戦争省長官は最も限定的な手段のみを使用しなければならない
- Anthropicは戦争省と協力継続および円滑な移行策を協議中で、自律兵器と大規模な国内監視に関する例外原則を維持している
- 同社は戦時下の米軍と安全保障の専門家が必要なツールを失わないよう支援を継続し、AIの国家安全保障活用に関する共通目標を強調した
戦争省によるサプライチェーンリスク指定
- 戦争省はAnthropicを米国の国家安全保障に対するサプライチェーン上のリスクに分類したと通知
- Anthropicはこの措置が法的に妥当ではないと判断し、裁判所に異議を申し立てる予定
- 戦争省の書簡の文言によれば、この指定はClaudeモデルを戦争省契約の直接的一部として使用する顧客にのみ適用される
- 戦争省と契約があっても、その契約と無関係なClaudeの利用やAnthropicとの取引には制限がない
法的根拠と適用範囲
- 戦争省の措置は10 USC 3252条に基づいており、この法律はサプライチェーン保護のため最小限の制限手段の使用を求めている
- したがって指定の範囲は非常に限定的であり、戦争省契約者以外の顧客には影響しない
戦争省との協力と例外原則
- Anthropicはここ数日、戦争省と協力継続の方法および移行手続きを協議した
- 同社は情報分析、モデリングとシミュレーション、作戦計画、サイバー作戦など多様な分野で戦争省を支援してきた
- Anthropicは自律兵器および大規模な国内監視に関する2つの例外原則を維持する
- 同社は軍事作戦の意思決定に民間企業が関与すべきではないとの立場を明確にした
社内投稿の流出事件
- 前日に報道機関へ流出した社内投稿について謝罪した
- 当該投稿は大統領のTruth Social投稿、戦争省長官のX投稿、OpenAIと国防総省の契約発表の直後に作成されたもの
- Anthropicはこの投稿を流出させておらず、状況を悪化させる意図もなかったと明らかにした
- 投稿は6日前に作成されたもので、現在の状況を反映していない古い評価である
今後の支援と共通目標
- Anthropicは戦時下の米軍と国家安全保障の専門家が必要なツールを引き続き利用できるよう支援する計画
- 戦争省と安全保障機関に名目的な費用でモデルと技術支援を継続提供する予定
- 同社は戦争省と米国の安全保障強化およびAIの政府活用拡大という共通目標を共有している
- 今後のすべての決定はこの共有された前提に基づいて行われる
1件のコメント
Hacker Newsの意見
この件でオーバートンの窓がどれほど遠くまで動いたのかに驚く
2007年に卒業した頃は、技術企業が自社システムが戦争に使われることを拒むのはよくあることで、そうした企業への就職を道徳的理由で断る同級生も多かった
ところが今やAnthropicは、道徳ではなく実利的理由でたった2つの例外を設けようとしている。それさえも、まるで戦争を支援したいが仕方ないとでも言うような言葉で包んでいる。世界は本当に大きく変わった
ナパーム弾反対の映画で、労働者たちが自分たちの作る製品が実は兵器であることを知らない状況を風刺している
「私たちが何を生産するかは労働者、学生、エンジニアにかかっている」という最後の台詞は今でも有効だ
昔はこういう話が倫理教育の一部だったのに、今ではそうした授業さえ消えたように思える
自律殺傷兵器の技術がまだ十分に発達していないから拒んでいるだけで、「まだは」という留保が付いている
OpenAIよりはましだとしても、結局は**「より悪くない選択肢」**にすぎない
防衛研究が必要だという現実はあるが、自動化された意思決定システムが人間の統制を離れれば危険だ
法的に
human-in-the-loopを義務づけるべきだと思う2007年の「戦争」はイラクであり、今の「戦争」はガザ、イラン、ベネズエラ、そしてウクライナや台湾侵攻の可能性まで含む
Anthropicの内部でもこうした文脈を念頭に置いているのだろうと思う
大学時代、DARPAで働きたいと言っていた友人がいたが、倫理的観点を尋ねると「それは自分の問題ではない」と答えた
アメリカで学びながら感じたのは、産業界の経営陣も大学も批判的思考と倫理教育には関心がなく、人を単なる技術者という道具にすることに集中しているということだ
ハーバードのVRイノベーション週間でも、「倫理と法」のセッションには創業者や開発者はほとんどいなかった。社会的影響についての議論は徹底的に排除されていた
結局、金に向かう狂気が社会の思考能力を壊したのだと感じる
その結果として誰かが死ぬなら、自分にも責任があると思う
だが現実には、生計のために道徳的な一線を守るのは難しいという問題がある。結局、みな同じ船に乗っている
ジョージ・オーウェルの文章(リンク)でも、科学教育だけでは人間的な視点は保証されないと述べられている
「Anthropicは国防総省との違いより共通点の方が多い」という一文を見て驚いた
War DepartmentをDefense Departmentに変えた理由は、人類が自らの創造物の重さを悟ったからだそれなのに今、AIアラインメント(alignment) を「戦争省とのアラインメント」と同じ文脈で論じるのは知的に不適切だ
今年攻撃した国々の中に、人類に実存的脅威を与える国はない。むしろこうした戦争が中核的リスクを高めている
なぜ研究者の間で反対の声がもっと上がらないのか不思議だ
AIが軍事目的で国有化される可能性が高く、Anthropicが自社技術を原子爆弾より危険だと言いながらPalantirとの軍事協力を結ぶのは矛盾している
Defenseという語の方がむしろ最もオーウェル的でない表現なのかもしれないAnthropicの「戦闘員(warfighter)」発言を見て疑問に思った
本当にこの2つの例外だけで倫理的境界を守れるのか?
Warfighterという単語自体が奇妙だ。昔はservicemenと呼んでいたのに、今は攻撃的なイメージを強調しているようだAnthropicは今回の件で「良い側」のように見せながら、同時に戦争産業で金を稼いでいる
Warfighterという語ほどオーウェル的なアメリカの2026年の現実を示すものはないDoDというニュースピーク的名称の方がオーウェル的だMike Masnickの Techdirt記事 を引用している
過去の政府であれば、「AIが人間の介入なしに殺害の決定を下さないようにしたい」という立場は、ごく普通の交渉条件だったはずだ
ところが今では、国防長官が公然とその企業を**「裏切り者」と非難し、大統領がすべての政府機関に利用停止を指示し、CEOが「人質の手紙」のような謝罪文**を書かねばならない状況になっている
政府の権力と腐敗が統制されなければ、企業はいずれこうした取引をするようになる
最初は金と愛国心で始まるが、次第に取り返しのつかないことに関与するようになり、抜け出すのも難しくなる
新しいCEOが来て「前任者は弱かった、私は違う」と言い、同じ悪循環を繰り返す
戦争産業に技術を提供しようとする人たちに、こう言いたい
「すべてを奪われても、良心だけは自ら放棄しない限り失われない」
彼らはただ政府を助けるという信念で働いていることが多い
今回の件が法廷と世論の法廷でどう決着するのか、とても興味深い
重要な事例だと思うし、正しい結果になることを願う
戦争省次官 Emil Michael が「Anthropicとの交渉はない」と 公式発表 した
a16zニュースのインタビューで詳しく扱われている