5 ポイント 投稿者 GN⁺ 2026-03-07 | 1件のコメント | WhatsAppで共有
  • 米国戦争省がAnthropicを国家安全保障に対するサプライチェーン上のリスク要因に指定し、同社はこの措置が法的に正当ではないとみて法的対応を準備中
  • 戦争省の書簡では、Claudeモデルの使用制限の範囲は非常に狭く、戦争省の契約と直接関係する顧客の利用にのみ適用される
  • 関連法(10 USC 3252)は政府保護の目的で存在し、戦争省長官は最も限定的な手段のみを使用しなければならない
  • Anthropicは戦争省と協力継続および円滑な移行策を協議中で、自律兵器と大規模な国内監視に関する例外原則を維持している
  • 同社は戦時下の米軍と安全保障の専門家が必要なツールを失わないよう支援を継続し、AIの国家安全保障活用に関する共通目標を強調した

戦争省によるサプライチェーンリスク指定

  • 戦争省はAnthropicを米国の国家安全保障に対するサプライチェーン上のリスクに分類したと通知
    • Anthropicはこの措置が法的に妥当ではないと判断し、裁判所に異議を申し立てる予定
  • 戦争省の書簡の文言によれば、この指定はClaudeモデルを戦争省契約の直接的一部として使用する顧客にのみ適用される
    • 戦争省と契約があっても、その契約と無関係なClaudeの利用やAnthropicとの取引には制限がない

法的根拠と適用範囲

  • 戦争省の措置は10 USC 3252条に基づいており、この法律はサプライチェーン保護のため最小限の制限手段の使用を求めている
    • 法の目的は供給業者の処罰ではなく政府の保護にある
  • したがって指定の範囲は非常に限定的であり、戦争省契約者以外の顧客には影響しない

戦争省との協力と例外原則

  • Anthropicはここ数日、戦争省と協力継続の方法および移行手続きを協議した
    • 同社は情報分析、モデリングとシミュレーション、作戦計画、サイバー作戦など多様な分野で戦争省を支援してきた
  • Anthropicは自律兵器および大規模な国内監視に関する2つの例外原則を維持する
    • 同社は軍事作戦の意思決定に民間企業が関与すべきではないとの立場を明確にした

社内投稿の流出事件

  • 前日に報道機関へ流出した社内投稿について謝罪した
    • 当該投稿は大統領のTruth Social投稿戦争省長官のX投稿OpenAIと国防総省の契約発表の直後に作成されたもの
    • Anthropicはこの投稿を流出させておらず、状況を悪化させる意図もなかったと明らかにした
    • 投稿は6日前に作成されたもので、現在の状況を反映していない古い評価である

今後の支援と共通目標

  • Anthropicは戦時下の米軍と国家安全保障の専門家が必要なツールを引き続き利用できるよう支援する計画
    • 戦争省と安全保障機関に名目的な費用でモデルと技術支援を継続提供する予定
  • 同社は戦争省と米国の安全保障強化およびAIの政府活用拡大という共通目標を共有している
    • 今後のすべての決定はこの共有された前提に基づいて行われる

1件のコメント

 
GN⁺ 2026-03-07
Hacker Newsの意見
  • この件でオーバートンの窓がどれほど遠くまで動いたのかに驚く
    2007年に卒業した頃は、技術企業が自社システムが戦争に使われることを拒むのはよくあることで、そうした企業への就職を道徳的理由で断る同級生も多かった
    ところが今やAnthropicは、道徳ではなく実利的理由でたった2つの例外を設けようとしている。それさえも、まるで戦争を支援したいが仕方ないとでも言うような言葉で包んでいる。世界は本当に大きく変わった

    • 1969年のドイツ短編映画 Nicht löschbares Feuer (Inextinguishable Fire) を思い出す
      ナパーム弾反対の映画で、労働者たちが自分たちの作る製品が実は兵器であることを知らない状況を風刺している
      「私たちが何を生産するかは労働者、学生、エンジニアにかかっている」という最後の台詞は今でも有効だ
    • 映画 Real Genius でも、学生たちが知らないうちに兵器を作らされる設定があった
      昔はこういう話が倫理教育の一部だったのに、今ではそうした授業さえ消えたように思える
    • Anthropicの2つの例外のうち、道徳的理由によるものは1つしかない
      自律殺傷兵器の技術がまだ十分に発達していないから拒んでいるだけで、「まだは」という留保が付いている
      OpenAIよりはましだとしても、結局は**「より悪くない選択肢」**にすぎない
    • MH17事件で高校生たちが味わった悲しみを見て以来、戦争関連の研究開発についての考えが複雑になった
      防衛研究が必要だという現実はあるが、自動化された意思決定システムが人間の統制を離れれば危険だ
      法的に human-in-the-loop を義務づけるべきだと思う
    • 戦争に対する態度は時代的文脈によって変わる
      2007年の「戦争」はイラクであり、今の「戦争」はガザ、イラン、ベネズエラ、そしてウクライナや台湾侵攻の可能性まで含む
      Anthropicの内部でもこうした文脈を念頭に置いているのだろうと思う
  • 大学時代、DARPAで働きたいと言っていた友人がいたが、倫理的観点を尋ねると「それは自分の問題ではない」と答えた
    アメリカで学びながら感じたのは、産業界の経営陣も大学も批判的思考と倫理教育には関心がなく、人を単なる技術者という道具にすることに集中しているということだ
    ハーバードのVRイノベーション週間でも、「倫理と法」のセッションには創業者や開発者はほとんどいなかった。社会的影響についての議論は徹底的に排除されていた
    結局、金に向かう狂気が社会の思考能力を壊したのだと感じる

    • AdTech業界で働いて感じたのは、自分が書いた広告コードが選挙操作、反ワクチン、詐欺広告などに使われうるということだ
      その結果として誰かが死ぬなら、自分にも責任があると思う
      だが現実には、生計のために道徳的な一線を守るのは難しいという問題がある。結局、みな同じ船に乗っている
    • こうした倫理的無感覚は人文学の衰退と関係があると思う
      ジョージ・オーウェルの文章(リンク)でも、科学教育だけでは人間的な視点は保証されないと述べられている
    • 「創業者やCEOには倫理討論に参加する資格がない」という言い方は、能力主義的な傲慢に聞こえる
    • 「ロケットがどこに落ちようと、それは私の部門の仕事ではない」というフォン・ブラウンの言葉を思い出す
    • ここ数年のAI狂騒は、人間性への信頼を完全に壊した。強欲が空気のように広がっている
  • 「Anthropicは国防総省との違いより共通点の方が多い」という一文を見て驚いた

    • 原子爆弾以後、War DepartmentDefense Department に変えた理由は、人類が自らの創造物の重さを悟ったからだ
      それなのに今、AIアラインメント(alignment) を「戦争省とのアラインメント」と同じ文脈で論じるのは知的に不適切だ
      今年攻撃した国々の中に、人類に実存的脅威を与える国はない。むしろこうした戦争が中核的リスクを高めている
      なぜ研究者の間で反対の声がもっと上がらないのか不思議だ
    • 「私たちが望んでいるのは従順な大衆だ」と読むと、その文はより明確になる
    • 文全体を読んで眉毛が消えるほど衝撃を受けた
    • アメリカの外から見ると、この一連の流れは恐ろしく感じられる
      AIが軍事目的で国有化される可能性が高く、Anthropicが自社技術を原子爆弾より危険だと言いながらPalantirとの軍事協力を結ぶのは矛盾している
    • ベネズエラやイランでの活動を見ると、Defense という語の方がむしろ最もオーウェル的でない表現なのかもしれない
  • Anthropicの「戦闘員(warfighter)」発言を見て疑問に思った
    本当にこの2つの例外だけで倫理的境界を守れるのか?

    • Warfighter という単語自体が奇妙だ。昔は servicemen と呼んでいたのに、今は攻撃的なイメージを強調しているようだ
    • 完璧でなくても、少しでもより倫理的な選択肢へと金を動かすのには意味があると思う
    • 実際、この話に「善玉」はいない。両社とも目的は利益追求であり、PRでイメージを飾っているだけだ
      Anthropicは今回の件で「良い側」のように見せながら、同時に戦争産業で金を稼いでいる
    • 結局はマーケティング戦略にすぎず、効果はあったと思う
    • うまいPRプレーだった
  • Warfighter という語ほどオーウェル的なアメリカの2026年の現実を示すものはない

    • この用語はすでに20年以上使われている。むしろ DoD というニュースピーク的名称の方がオーウェル的だ
    • 「道が行われれば軍馬は畑を耕し、道が行われなければ軍馬は国境で繁殖する」という道徳経 第46章の一節を思い出す
    • 「我々はイランと戦争中ではない」という政治家の言葉が空虚に聞こえる
    • トランプが新しい人事を「MAGA戦士」と呼んだのも同じ文脈だ
  • Mike Masnickの Techdirt記事 を引用している
    過去の政府であれば、「AIが人間の介入なしに殺害の決定を下さないようにしたい」という立場は、ごく普通の交渉条件だったはずだ
    ところが今では、国防長官が公然とその企業を**「裏切り者」と非難し、大統領がすべての政府機関に利用停止を指示し、CEOが「人質の手紙」のような謝罪文**を書かねばならない状況になっている

  • 政府の権力と腐敗が統制されなければ、企業はいずれこうした取引をするようになる
    最初は金と愛国心で始まるが、次第に取り返しのつかないことに関与するようになり、抜け出すのも難しくなる
    新しいCEOが来て「前任者は弱かった、私は違う」と言い、同じ悪循環を繰り返す

  • 戦争産業に技術を提供しようとする人たちに、こう言いたい
    「すべてを奪われても、良心だけは自ら放棄しない限り失われない」

    • 防衛産業は一般の技術業界より給与が高いわけではない
      彼らはただ政府を助けるという信念で働いていることが多い
  • 今回の件が法廷と世論の法廷でどう決着するのか、とても興味深い
    重要な事例だと思うし、正しい結果になることを願う

  • 戦争省次官 Emil Michael が「Anthropicとの交渉はない」と 公式発表 した