- 米国国防総省(DoD) が Anthropic に対し、国防生産法(Defense Production Act) の発動をちらつかせ、軍事用モデルの提供と軍の要求に合わせた調整を強要している
- Anthropic は、国内での大規模監視や人間の統制なしの自律的殺傷に自社モデルが使用されることを拒否しており、その報復として国防総省が同社をサプライチェーンリスク(supply chain risk) に指定しようとしている
- 国防総省は、Anthropic が拒否した条件を受け入れさせるため、Google と OpenAI とも交渉中であり、各社を互いに競わせようとしている
- これに対し、Google と OpenAI の現職社員 709人(Google 614人、OpenAI 95人) が連名の公開書簡を通じて、両社が連帯して国防総省の要求を拒否することを求めている
- この書簡は、AI の軍事的悪用に対する内部抵抗と業界の連帯を象徴する行動である
公開書簡の主な内容
- 国防総省が Anthropic に対し、国防生産法の発動とサプライチェーンリスク指定をちらつかせている
- 要求内容は、Anthropic の AI モデルを軍に提供し、軍の必要に合わせて調整するよう強制すること
- Anthropic は、国内監視および自律型殺傷兵器への使用禁止という内部原則を守っている
- 国防総省は、Anthropic の拒否後、Google と OpenAI との交渉を進めている
- 各社が他社より先に譲歩するのではないかという恐怖を生み出す戦略として描かれている
- 書簡は、このような分断の試みを防ぐための共同立場の表明という意味を持つ
- 「この戦略は、私たちがお互いの立場を知らないときにしか機能しない」という文言で、連帯の必要性を強調している
署名者と参加状況
- Google 社員614人、OpenAI 社員95人が署名
- 全員が現職社員として確認されている
- 一部は実名で、多くは匿名(Anonymous) で参加
- 署名は匿名または実名を選択可能で、すべての署名は雇用証明手続きによって確認されている
- 確認方法: 会社メール認証、Google Form ログイン、または身分証写真の提出など
- 匿名署名者の個人情報は確認後24時間以内に自動削除される
書簡の意義
- AI 企業内部で、軍事利用に対する倫理的限界の設定を明確にした事例
- Google と OpenAI の社員が、企業間競争より共同原則を優先する立場を公に表明
- AI の自律的殺傷および監視技術の乱用に対する業界内部のけん制として重要な意味を持つ
3件のコメント
アメリカの情報機関くらいなら直接開発していてもおかしくないのに……。むしろ学習用データの収集はもっと得意なはずだから
Wow
Hacker Newsの意見
今回の件は、米国経済と法の支配全体に対して、はるかに大きな影響を及ぼしそうだ。
政府が国家安全保障を名目に作った調達規則を使って、Anthropicを「忠誠心の不足」で処罰できるなら、今後はAppleやAmazonのような他の企業も同じ危険にさらされうる。
これは米国にとって重要な転換点となる瞬間だ。
Anthropicが、自社モデルは米国防総省の「大規模自動殺傷」という目的には合致しないと明確に述べたのは賢明だったと思う。
LLMで兵器を運用するのは、歴史的に見ても恐ろしい過ちだ。
もしAnthropicが潰れるなら、それは米国への信頼の棺にまた1本の釘を打つことになるだろう。
サブスクリプション企業は、大統領の一言のせいで重要なツールを失い、他の米国企業に依存していて大丈夫なのか疑うようになるはずだ。
今ではTruth Socialへの1回の投稿で、本来なら何年もかかることが1日で起きてしまう。
結局は誰かが国防総省の要求を受け入れるだろうし、Anthropicが踏みとどまっても結果は変わらないはずだ。
国防総省が彼らを「サプライチェーンの脆弱性」に指定したのは誤りだった。単にDPAを使って命じていれば、もっと安く静かに済んだだろう。
かつてナチス・ドイツから科学者たちが米国へ逃れてマンハッタン計画に参加したように、今度はAI人材が米国を去ることになる。
自国での大規模監視は自国民には耐えられるものかもしれないが、他国が同じことをしたら米国人はどう感じるのだろうか。
こうした政策は、結局は世界中がお互いを監視することを許すのと同じだ。
米国市民の命さえ脅かさなければ、外国への監視や自律兵器は構わないと言っているようなニュアンスだった。
これが一部の米国人の本音なのか、それとも過激な愛国主義者にアピールするための表現なのか気になる。
最近の政府の振る舞いを見ると、こういう人々がどう扱われるのか心配だ。
米国は長く超大国として君臨しすぎて、「自分たちは常に正しい」という権力中毒に陥っているように見える。
企業は結局のところ個人の集合体なのだから、政府が方針を強制すればイノベーションは死ぬと思う。
優れた科学者やエンジニアたちを無理やり屈服させるのは無駄だ。
ただし、政府があらゆる取引を停止するのは行き過ぎかもしれない。
たとえばトマト缶の会社が「対テロ戦争には使わないでほしい」と言った場合、政府がその会社を避けるのは合理的かもしれない。
権力を失ってもその独占が消えることはない。とりわけ指導者が、社会で影響力のある人々を弱みで支配しているならなおさらだ。
Anthropicの声明で言及された「国内の大規模監視と自律殺傷」の拒否は罠だ。
「国内」という言葉には意味がない。
Eyes協定によれば、各国は互いの市民データを共有することで、自国民監視の禁止を迂回している。
結局、すべての国家が互いを監視し、法律はただの大衆を安心させる飾りにすぎない。
スパイボットには市民権という概念がなく、あらゆるデジタル活動が監視対象だ。
GoogleやTikTokにできるなら、政府やChatGPTのようなエージェント型AIにも当然できる。
今起きているのはAIの問題ではなく、忠誠心テストだ。
政府資金と忠誠の交換、そして誰にでも訪れる選択の瞬間だ。
最終的には、共犯者になることが忠誠の証明になる世界だ。
だから希望するのではなく、要求し、抵抗しなければならない。
EmbeddingGemmaやQwen3のようなモデルでも、十分にデータクラスタリングは可能だ。
米国はすでに統制経済のように動いている。
コロナ禍の時も、「民間企業」という外観の下で政府支出だけで成長していた。
国防総省が民間より優れたAIを持っていないのなら、それは無能の告白だ。
いま必要なのは軍組織を改革し、無能なリーダーシップを交代させることだ。
そして政府がAnthropicより優れた生成AIを持っていないのは当然だと思う。
政権が変わっても国防費は増え続け、その金は人を殺すことをいとわない企業へ流れていく。
アイゼンハワーの警告が現実になったということだ。
ただ資本主義は、成果によってエリートを選抜するという点が違っていただけで、それすら2011年以降は曖昧になってきた。
これまでの出来事をタイムラインとして整理する。
Anthropicをサプライチェーン安全保障上のリスクに指定しようとする議論とともに、会社を国家安全保障を名目に接収することもありうるという脅しがあった。
結局、OpenAIも同じように利益は民営化、損失は社会化されるだろうという予測だ。
あるサイトが、OpenAIやGoogleの現職・元社員のうち、特定の政治傾向を持つ人々の身元情報を収集している。
会社のメールアドレスや社員証の写真などで認証を求め、米国ベースのクラウドに保存しているという。
運営者は匿名で、このデータはさまざまな勢力に多目的で利用されうるように思える。
「私たちは指導者たちが違いを脇に置き、共に拒否してくれることを願う」という言葉は良いが、その希望が崩れた場合を考えなければならない。
現実的には難しいだろうが、そうした決断があるなら尊敬する。