2 ポイント 投稿者 GN⁺ 2026-03-01 | 3件のコメント | WhatsAppで共有
  • 米国国防総省(DoD) が Anthropic に対し、国防生産法(Defense Production Act) の発動をちらつかせ、軍事用モデルの提供と軍の要求に合わせた調整を強要している
  • Anthropic は、国内での大規模監視人間の統制なしの自律的殺傷に自社モデルが使用されることを拒否しており、その報復として国防総省が同社をサプライチェーンリスク(supply chain risk) に指定しようとしている
  • 国防総省は、Anthropic が拒否した条件を受け入れさせるため、Google と OpenAI とも交渉中であり、各社を互いに競わせようとしている
  • これに対し、Google と OpenAI の現職社員 709人(Google 614人、OpenAI 95人) が連名の公開書簡を通じて、両社が連帯して国防総省の要求を拒否することを求めている
  • この書簡は、AI の軍事的悪用に対する内部抵抗と業界の連帯を象徴する行動である

公開書簡の主な内容

  • 国防総省が Anthropic に対し、国防生産法の発動サプライチェーンリスク指定をちらつかせている
    • 要求内容は、Anthropic の AI モデルを軍に提供し、軍の必要に合わせて調整するよう強制すること
    • Anthropic は、国内監視および自律型殺傷兵器への使用禁止という内部原則を守っている
  • 国防総省は、Anthropic の拒否後、Google と OpenAI との交渉を進めている
    • 各社が他社より先に譲歩するのではないかという恐怖を生み出す戦略として描かれている
  • 書簡は、このような分断の試みを防ぐための共同立場の表明という意味を持つ
    • 「この戦略は、私たちがお互いの立場を知らないときにしか機能しない」という文言で、連帯の必要性を強調している

署名者と参加状況

  • Google 社員614人、OpenAI 社員95人が署名
    • 全員が現職社員として確認されている
    • 一部は実名で、多くは匿名(Anonymous) で参加
  • 署名は匿名または実名を選択可能で、すべての署名は雇用証明手続きによって確認されている
    • 確認方法: 会社メール認証、Google Form ログイン、または身分証写真の提出など
    • 匿名署名者の個人情報は確認後24時間以内に自動削除される

書簡の意義

  • AI 企業内部で、軍事利用に対する倫理的限界の設定を明確にした事例
  • Google と OpenAI の社員が、企業間競争より共同原則を優先する立場を公に表明
  • AI の自律的殺傷および監視技術の乱用に対する業界内部のけん制として重要な意味を持つ

3件のコメント

 
chcv0313 2026-03-03

アメリカの情報機関くらいなら直接開発していてもおかしくないのに……。むしろ学習用データの収集はもっと得意なはずだから

 
kimjoin2 2026-03-01

Wow

 
GN⁺ 2026-03-01
Hacker Newsの意見
  • 今回の件は、米国経済と法の支配全体に対して、はるかに大きな影響を及ぼしそうだ。
    政府が国家安全保障を名目に作った調達規則を使って、Anthropicを「忠誠心の不足」で処罰できるなら、今後はAppleやAmazonのような他の企業も同じ危険にさらされうる。
    これは米国にとって重要な転換点となる瞬間だ。

    • 政府は事実を書き換える無法なカキストクラシーへと変質しつつある。
      Anthropicが、自社モデルは米国防総省の「大規模自動殺傷」という目的には合致しないと明確に述べたのは賢明だったと思う。
      LLMで兵器を運用するのは、歴史的に見ても恐ろしい過ちだ。
    • これはまるで、1954年のオッペンハイマーの保安審査公聴会が現代版として再現されているような感じだ。
    • この政権は、そのたびごとに「米国の重要な転換点」という瞬間を作り出している。
    • もう誰を信頼すべきなのかわからない。大丈夫だと信じていた時間が長すぎた。
    • 実際、こういうことは今さら珍しくもなく、ただの平常運転のように感じる。
  • もしAnthropicが潰れるなら、それは米国への信頼の棺にまた1本の釘を打つことになるだろう。
    サブスクリプション企業は、大統領の一言のせいで重要なツールを失い、他の米国企業に依存していて大丈夫なのか疑うようになるはずだ。

    • すでに世界中で、米国企業に依存するのは危険だと感じられている。
      今ではTruth Socialへの1回の投稿で、本来なら何年もかかることが1日で起きてしまう。
    • 正直、Anthropicが潰れるのを望む気持ちもあるが、その余波が大きすぎて結局は自分自身も被害を受ける。
    • どの国にも、「国益」を理由に私有財産を没収できる法律がある。
      結局は誰かが国防総省の要求を受け入れるだろうし、Anthropicが踏みとどまっても結果は変わらないはずだ。
      国防総省が彼らを「サプライチェーンの脆弱性」に指定したのは誤りだった。単にDPAを使って命じていれば、もっと安く静かに済んだだろう。
    • Anthropicは最終的に米国を去ることになるだろう。
      かつてナチス・ドイツから科学者たちが米国へ逃れてマンハッタン計画に参加したように、今度はAI人材が米国を去ることになる。
    • 「ノー」と言うことは信頼を壊すことではなく、原則を守る行為だ。
  • 自国での大規模監視は自国民には耐えられるものかもしれないが、他国が同じことをしたら米国人はどう感じるのだろうか。
    こうした政策は、結局は世界中がお互いを監視することを許すのと同じだ。

    • 米国人は自分たちを例外的な存在だと信じているため、他人には許されないことを自分たちはしてもよいと考えがちだ。
    • むしろ米国より中国に監視されるほうがまだましだと感じる。米国の司法制度のほうが、はるかに恐ろしいこともありうる。
    • Anthropicの声明は印象的だった。
      米国市民の命さえ脅かさなければ、外国への監視や自律兵器は構わないと言っているようなニュアンスだった。
      これが一部の米国人の本音なのか、それとも過激な愛国主義者にアピールするための表現なのか気になる。
    • 私のように10年以上公然と政府を批判してきた人間は、監視AIが自分を見逃すはずがないと感じる。
      最近の政府の振る舞いを見ると、こういう人々がどう扱われるのか心配だ。
    • 最近の重要なAI論文を見ると、ほとんどが非米国人研究者の名前だ。
      米国は長く超大国として君臨しすぎて、「自分たちは常に正しい」という権力中毒に陥っているように見える。
  • 企業は結局のところ個人の集合体なのだから、政府が方針を強制すればイノベーションは死ぬと思う。
    優れた科学者やエンジニアたちを無理やり屈服させるのは無駄だ。

    • 政府がXを望み、企業Aが「それはできない」と言えば、取引を打ち切るのは制度上自然なことだ。
      ただし、政府があらゆる取引を停止するのは行き過ぎかもしれない。
      たとえばトマト缶の会社が「対テロ戦争には使わないでほしい」と言った場合、政府がその会社を避けるのは合理的かもしれない。
    • 政府の本質は強制力の独占だ。
      権力を失ってもその独占が消えることはない。とりわけ指導者が、社会で影響力のある人々を弱みで支配しているならなおさらだ。
    • 「じゃあどこへ移住するんだ、ロシアか? 中国か? UAEか?」という冷笑も聞こえる。
  • Anthropicの声明で言及された「国内の大規模監視と自律殺傷」の拒否はだ。
    「国内」という言葉には意味がない。
    Eyes協定によれば、各国は互いの市民データを共有することで、自国民監視の禁止を迂回している。
    結局、すべての国家が互いを監視し、法律はただの大衆を安心させる飾りにすぎない。

    • 私たちは米国市民だから安全だと感じるが、インターネット空間に国境はない。
      スパイボットには市民権という概念がなく、あらゆるデジタル活動が監視対象だ。
      GoogleやTikTokにできるなら、政府やChatGPTのようなエージェント型AIにも当然できる。
    • Anthropicは、米軍が外国機関の収集したデータを米国市民に適用できないよう主張すべきだったのだろう。
    • 「希望」は戦略ではない。
      今起きているのはAIの問題ではなく、忠誠心テストだ。
      政府資金と忠誠の交換、そして誰にでも訪れる選択の瞬間だ。
      最終的には、共犯者になることが忠誠の証明になる世界だ。
      だから希望するのではなく、要求し、抵抗しなければならない
    • 実際、国内監視にLLMが本当に必要なのかも疑わしい。
      EmbeddingGemmaやQwen3のようなモデルでも、十分にデータクラスタリングは可能だ。
    • ではなぜ国防総省は、あえてLLMを欲しがるのか。それが核心的な疑問だ。
  • 米国はすでに統制経済のように動いている。
    コロナ禍の時も、「民間企業」という外観の下で政府支出だけで成長していた。
    国防総省が民間より優れたAIを持っていないのなら、それは無能の告白だ。
    いま必要なのは軍組織を改革し、無能なリーダーシップを交代させることだ。

    • 政府支出がなければ成長率はマイナスになるだろうが、それはどの国でも同じだ。
      そして政府がAnthropicより優れた生成AIを持っていないのは当然だと思う。
    • 遠からず米国が、OpenAIやNvidiaを救済の名目で支援する可能性は高い。
      政権が変わっても国防費は増え続け、その金は人を殺すことをいとわない企業へ流れていく。
      アイゼンハワーの警告が現実になったということだ。
    • 国防費は税支出の第1位ではない、という指摘もある。
    • 軍が無駄なものを買うのは今に始まった話でもない。
    • 実のところ、こうした統制経済の構造はどの国にも存在する。
      ただ資本主義は、成果によってエリートを選抜するという点が違っていただけで、それすら2011年以降は曖昧になってきた。
  • これまでの出来事をタイムラインとして整理する。

  • Anthropicをサプライチェーン安全保障上のリスクに指定しようとする議論とともに、会社を国家安全保障を名目に接収することもありうるという脅しがあった。
    結局、OpenAIも同じように利益は民営化、損失は社会化されるだろうという予測だ。

    • George Hotzが、Nvidiaの国有化の可能性を懸念してtinygradを始めたと語っていたことがある。
    • こうした流れは、国有化の極が出会う蹄鉄理論のようにも見える。滑稽だが苦い現実だ。
  • あるサイトが、OpenAIやGoogleの現職・元社員のうち、特定の政治傾向を持つ人々の身元情報を収集している。
    会社のメールアドレスや社員証の写真などで認証を求め、米国ベースのクラウドに保存しているという。
    運営者は匿名で、このデータはさまざまな勢力に多目的で利用されうるように思える。

  • 「私たちは指導者たちが違いを脇に置き、共に拒否してくれることを願う」という言葉は良いが、その希望が崩れた場合を考えなければならない。

    • 人類はいつだって集団分裂の中で問題へ突っ込んできた。それも自然選択の一形態にすぎない。
    • もしAnthropicが本当に原則を守るなら、会社を自発的に解散するという選択肢もありうる。
      現実的には難しいだろうが、そうした決断があるなら尊敬する。
    • 最近のテック業界のリーダーシップは信頼しにくい。
    • Googleが社員の抗議を扱ったやり方や、Amazon化した文化を見ると、今回も静かに契約を結ぶか、社内の反発を踏みつぶす気がする。
    • SamやDarioのようなリーダーたちに、もはや希望は託せない気がする。