4 ポイント 投稿者 GN⁺ 2026-02-27 | 1件のコメント | WhatsAppで共有
  • 大規模な国内監視完全自律型兵器の2分野は契約対象外とする
  • Anthropicは米国および民主主義国家の防衛のためのAI活用を中核的使命としており、そのために国防総省および情報機関と協力している
  • Claudeモデルは機密ネットワーク、国立研究所、国家安全保障機関などで、情報分析、作戦計画、サイバー作戦などの任務に使用されている
  • 同社は中国共産党関連企業との取引停止AI悪用によるサイバー攻撃の遮断半導体輸出規制強化の支持などを通じて、米国のAI優位を守っている
  • ただし大規模な国内監視完全自律型兵器の2分野は、民主的価値と技術的信頼性の問題から使用できないものとして明示的に除外している
  • Anthropicは国防総省の圧力にもかかわらず、この2つの安全策を維持する立場を堅持し、協力継続を望んでいる

Anthropicの国防協力とAI配備

  • Anthropicは米国政府の機密ネットワークにAIモデルを最初に配備した先駆的企業である
    • 国立研究所および国家安全保障分野の顧客向けカスタムモデルも初めて提供
    • Claudeモデルは国防総省と複数の安全保障機関で、情報分析、モデリングおよびシミュレーション、作戦計画、サイバー作戦などに活用されている
  • 同社は米国のAI技術優位の維持のために短期的利益を放棄した事例を挙げている
    • 中国共産党関連企業との取引を停止し、数億ドルの売上を放棄
    • Claudeを悪用した中国発のサイバー攻撃を遮断
    • 半導体輸出規制の強化を支持し、民主主義陣営の技術的優位を確保

民主的価値と技術的信頼性に基づく2つの例外

  • Anthropicは、AIが民主的価値を損ない得る2つのユースケースを明示的に除外している
    • 大規模な国内監視: 合法的な海外情報活動は支持するが、国内の大衆監視は民主主義の原則に反する
      • AIベースの監視は、個人の移動、Web利用、社会的関係データを自動的に結合し、大規模な個人プロファイリングを可能にする
      • 現行法は技術進展の速度に追いついておらず、一部の監視行為は合法のまま残っている
    • 完全自律型兵器: 人間の介入なしに目標を識別・攻撃する兵器は、現行技術では信頼性が不十分
      • Anthropicはそのような兵器向け製品を提供しない
      • 国防総省に信頼性向上のための共同研究を提案したが、受け入れられなかった
      • 適切な監督と安全策の欠如により、現時点では配備不可であると明記

国防総省の要求とAnthropicの対応

  • 国防総省はAI企業に対し、"あらゆる合法的用途に同意"し、上記2つの安全策を撤廃するよう要求している
    • 拒否した場合、Anthropicをサプライチェーンリスク(supply chain risk) に指定するか、国防生産法(Defense Production Act) を発動して強制できると警告
    • この2つの措置は相反する性質を持ち、一方では安全保障上の脅威、他方では国家安全保障に不可欠な技術と見なしている
  • Anthropicはこうした圧力にもかかわらず、良心に照らして要求を受け入れられないと明確に表明
    • 国防総省が別の契約先を選ぶ権利は認めつつ、2つの安全策を維持したままでの協力継続を望んでいる
    • たとえ契約が終了しても円滑な移行支援を約束し、軍の作戦や計画に支障が出ないよう協力する予定

今後の立場

  • Anthropicは米国の国家安全保障を支援する意思を再確認している
  • 同社は国防総省との協力継続を望む一方、民主的価値と技術安全性の原則は譲らない姿勢を維持している

1件のコメント

 
GN⁺ 2026-02-27
Hacker Newsのコメント
  • この記事で最も強烈だったのは、政府が Anthropicのセキュリティ対策の撤廃を強要 しつつ、同時に同社を「サプライチェーン上のリスク」に指定すると脅した点だろう。
    一方では国家安全保障に不可欠だと言いながら、他方では危険要素だと呼ぶという矛盾した態度だ。
    Anthropicが「それなら政府は当社のサービスを使わなくてよい」と応じたのは印象的だった。メッセージ戦略でもあるが、ボールを政権側に投げ返した形でもある。

  • 以前Anthropicで働いていたが、今回のRSPアップデートについて 私が書いたコメント がある。
    Anthropicのリーダーたちが 価値観を守るために地位や機会を失う覚悟 を見せているのは感動的だ。
    Dario、Jared、Samのような人物たちは、自分たちの信念に反することなら不利益を受け入れるほど本気だ。
    もちろん完璧な会社ではないが、重要な決定を下す人たちの多くは善意と価値重視の動機で動いている。

  • この記事を読んでいて、「現在のAIは完全自律兵器を動かすほど信頼できない」という一文で引っかかった。
    つまり、十分に信頼できるようになれば自律兵器は可能だという余地を残している ように聞こえる。
    また、「国内の大規模監視」だけを批判し、「部分的な自律監視」や「海外監視」を否定していない点も残念だ。
    「Anthropic」という名前は人類全体のためという意味だと思っていたが、結局は「私たちの人間 vs あなたたちの人間」という構図に見える。

    • 「Anthropicが人間のためだ」という言葉は本当に本心なのかと考えさせられる。
      ちょうど OpenAIが「オープン」北朝鮮が「人民共和国」 と名乗るのと同じで、名前と実態は一致しないことがある。
      関連して People’s Republic of Tyranny という風刺ページを思い出した。
    • 表現としては適切だったと思う。Darioが未来について断定的に語れる立場ではない。
    • いつかシステムが十分に信頼可能になれば、完全自律兵器 が戦場に登場すると思う。
      Anthropicが言っているのは単に「今は無理だ」ということだけだ。後になれば制約が緩和される可能性は高い。
    • 「訓練データが十分になれば可能」というより、信頼性の基準が満たされれば可能 という意味に読める。
      ハードウェアや一般的なソフトウェアにも信頼性の限界はあるので、それ自体は不合理ではない。
    • ただ興味深いのは、自律兵器はまだ信頼できないと言いながら、ホワイトカラーの仕事の代替 には十分信頼できるとしている点で、矛盾して感じられる。
  • 組織の本当の性格は 価値と利益が衝突したとき に表れる。
    Anthropicが原則を守ろうとしている姿勢は感動的だ。たいていの会社にはこうした選択はできなかっただろう。

    • しかし、こうした決定は結局 金のかかること でもある。
      道徳的な理由から悪いシステムに依存することは、長期的には失敗するしかない。
      悪い行動に対する 強力な抑止装置 が必要だが、すでに手遅れ感もある。
  • この記事を読んで本当に憂鬱になった。アメリカがどこへ向かっているのかわからない。
    次の選挙で 理性的なリーダーシップ が現れてほしい。

    • ただし、これは一度の選挙で解決する話ではない。世代単位の努力 が必要だ。
    • 希望だけでは足りない。具体的な計画がなければ未来もない。
    • こうした流れは今に始まったことではない。9・11以降、警察の軍事化、民主主義への攻撃、一方的な外交政策 が続いてきた。
    • AIの無秩序な拡散が社会構造をさらに悪化させるのではないかと心配だ。ソーシャルメディア時代よりもさらに混乱した時代 が来るかもしれない。
    • 民主党が 主要課題より周辺的な争点にばかり集中 している限り、次の選挙で勝つのは難しい。
      サンフランシスコに住んでいるが、教師たちはGoFundMeで学用品を買っている一方で、市はRV撤去に3,600万ドルを使っている。
      関連記事 を見れば、現実がどれほど歪んでいるかがわかる。
  • すべての問題の根源は 議会が権限を行政府に渡してしまったこと だ。
    軍は法律で統制されるべきであり、市民の行動だけがそれを変えられる。
    企業が軍の行動を左右するなどあり得ない。技術はいつでも 徴発 され得るし、企業にはそれを止められない。
    CEOたちがこうしたことで英雄視されるのは、現実認識がどれほど歪んでいるかを示している。

    • 戦時動員体制ならまだしも、平時の民主国家でこうした 強制措置 は容認されるべきではない。
  • Anthropicが「人類のためのAI」を掲げながら、ペンタゴンへの優先アクセス権を販売 したという話を最初に聞いたときは失望した。
    ただ、誰かが軍産複合体と協力せざるを得ないのなら、最も高い道徳基準を持つところが担う方がましだ という理屈も理解はできる。

    • AIはもともと 軍事・監視向けに最適化された技術 だ。大量のデータを分析して有用な情報を抽出するのだから。
      結局、企業は利益のために存在する。
    • 企業は生き残るために収益が必要だ。ユーザーが十分に支払わないなら、別の収益源を探すしかない。
      投資家や株主がいる以上、道徳より生存が優先 されるのは避けられない。
      真の独立は 利益に依存しない構造 においてのみ可能だ。
  • 私はClaude Maxの契約者だが、今回の件で Anthropicが権力に屈しなかった姿 を誇りに思う。
    他の企業も勇気を得てほしい。

    • とはいえ、すでにある程度は 権力に屈した状態 でもある。ただ少なくとも最低限の 自尊心 は残っている。
  • 「Department of War」という表現がそのまま使われていたのは、単に 議会が名称を変えなかったから だろう。それ以外は悪くない表現だ。

    • 名前の問題で議論する必要はない。実際に 権力を握っている当人たちがそう呼んでいる のだから。
    • むしろ元の名称である「Department of War」のほうが機能を明確に表していてよいと思う。
      私たちは何でも婉曲に表現しすぎて、現実をきちんと見られなくなっている。
    • 私もその名前のほうが正直だと思う。実際に何をしているかをよく表していて、人々にその意味を噛みしめさせる。
    • この表現はHegsethがこだわっている用語だからそのまま使ったのだろう。「DoD」と書いていたら、むしろさらに刺激的だったかもしれない。
    • それでも、こうした名称の選択が 文章のトーンを決める うえで意味を持つのは確かだ。
  • DarioとAnthropicが 道徳的立場を取ったこと は高く評価する。最近のテック業界では珍しい。

    • LLMの楽観論者であれ悲観論者であれ、監視と自律兵器の危険性 は明白だ。
      DarioがSam AltmanやSundar Pichaiのように振る舞わなかったのは大したものだ。
    • ただ、これを単なる パフォーマンス と見る人もいる。すでに怪物を作った創造者たちが後から取り繕っているだけだというわけだ。
    • また別の見方では、声明の冒頭から「AIでアメリカと民主主義を守る」と述べているのを見て 吐き気がした と感じた。
      実際、Anthropicはすでに 国防・情報機関向けのモデルを展開 している。
    • ある人は「カナダやドイツを監視するのは構わないという意味なのか」として、道徳的根拠が弱い と批判していた。
    • 「今は道徳的でも、IPO後には結局 ウォール街とファンドの利益論理 に従属するだろう」とする冷笑的な見方もある。
      結局、何十億ドル規模の政府契約を前にすれば、どんな企業も純粋ではいられないという主張だ。