3 ポイント 投稿者 GN⁺ 2026-02-28 | 3件のコメント | WhatsAppで共有
  • OpenAI CEOのSam Altmanが、米国防総省(DoD)と機密ネットワークにモデルを配備する合意に達したと発表
  • 合意には、国内での大規模監視の禁止と、自律兵器システムを含む武力行使に対する人間の責任という原則が含まれており、国防総省もこの原則に同意
  • モデルが意図どおりに動作するよう技術的セーフガードを構築し、クラウドネットワークでのみ配備し、現地配備エンジニア(FDE)を投入する条件
  • OpenAIは、国防総省がこの同じ条件をすべてのAI企業に提案することを求めており、すべての企業が受け入れ可能な条件だとの立場
  • 法的・政府レベルの措置よりも、合理的な合意による状況の緩和を強く望むと表明

合意内容

  • OpenAIが国防総省の機密ネットワークにモデルを配備することで合意
  • 交渉の過程で、国防総省は安全に対する深い敬意と、最善の結果のために協力しようとする意思を示したと評価

安全原則

  • AIの安全と利益の広範な分配が、OpenAIのミッションの中核
  • 合意に含まれた2つの中核的な安全原則:
    • 国内での大規模監視の禁止
    • 自律兵器システムを含む武力行使に対する人間の責任
  • 国防総省もこの原則に同意し、これを法律と政策に反映し、合意書に明記

技術的セーフガードと配備条件

  • モデルが意図どおりに動作するよう**技術的セーフガード(technical safeguards)**を構築し、これは国防総省も求めていた事項
  • モデルの支援と安全確保のために**現地配備エンジニア FDE(Field Deployment Engineer)**を投入
  • クラウドネットワークでのみ配備する条件

業界全体への拡大要請

  • OpenAIは国防総省に、この同じ条件をすべてのAI企業に提案することを要請
  • すべての企業が受け入れ可能(willing to accept)な条件だとの立場
  • 法的・政府レベルの措置から離れ、合理的な合意による状況の緩和を強く望むと表明

3件のコメント

 
xguru 2026-02-28

結局、米国防総省がAnthropicを見限ってOpenAIを選んだ形ですが、いわゆる言い回しの違いがありますね。

OpenAIは、技術的な安全装置の構築、FDE(現場エンジニア)の投入、クラウド専用デプロイといった具体的な履行メカニズムをあわせて提案
Anthropicは利用規約レベルの例外条項を求めた

国防総省の立場では、**「民間企業が個別のユースケースに拒否権を行使する」**と受け止めて、見せしめのように発表したと。

この合意は、Anthropicがサプライチェーンリスクに指定されてからまもなく発表されたのですが、
Axiosの記事を見ると、国防総省はAnthropicとの対立を他のAI企業との交渉でトーン設定に使い、
OpenAIはその圧力の中で、国防総省が受け入れられる形で合意をまとめたわけですね。

公式見解の表現の違いも大きいですね。

Sam Altmanは**「国防総省は安全に深い敬意を示した」と言い、
Anthropic側は最後まで
「国防総省の要求には良心に照らして同意できない」**というトーンでした。

同じ原則でも、国防総省に面子を立てるかどうかの違いが大きかったように見えますが、
結果的にはOpenAIが受け入れたことでAnthropicだけが不格好に見える構図になったので、
サム・アルトマンが最後に「この条件をすべてのAI企業に同じように提案してほしい」と付け加えて、
Anthropicへの措置を緩和してほしいという迂回的なメッセージを送ったようにも見えますね.

 
lamanus 2026-03-01

同じレベルの契約であっても、信頼度やイメージがずいぶん違って感じられますね。
GPTのサブスクも解約したほうがよさそうですね。

 
GN⁺ 2026-02-28
Hacker Newsの意見
  • OpenAIの社員たちが「We Will Not Be Divided」の署名に参加していたのに、今回の件の後も働き続けているのが理解できない
    Anthropicが求めた条件をOpenAIも貫いていたなら、政府はこの契約を承認しなかったはず
    結局、OpenAIは実際にはレッドラインを執行しないという暗黙の合意があるとしか思えない
    • Sam Altmanが解任されてから復帰した時点で、すでに安全重視の社員は去っていたと思う
      今残っている人たちの多くは、たぶん株式のためにいる
    • ただしOpenAIもAnthropicと同じ原則を契約に盛り込んだという話もある
      「国内での大規模監視の禁止」と「武力行使に対する人間の責任」を明記し、DoW(Department of War) もこれに同意したと述べている
    • 今回の件は、結局すべての大手AI企業が技術の不透明な軍事利用に署名することになると示唆している
    • トランプ政権のこの1年を見れば、こうした不合理な交渉はまったく驚きではない
      無駄に政治的資本を消耗し、より悪い取引を結ぶのが彼らのやり方だ
    • 背後には政府が企業を統制しようとする政治的意図があると思う
      OpenAIがAnthropicと同じ条件を提示していたのに、ロビー資金やPR効果のおかげで政府が見逃した可能性もある
  • 今回の件が不満なら、財布で意思表示すべきだと思う
    私もChatGPTを削除してサブスクを解約し、Anthropicにより多く投じることにした
    • 私も似たような時期にClaudeのサブスクを解約していたが、今回の件で再びClaudeを再契約した
      原則ある姿勢が重要だと感じたし、もうOpenAIは信頼していない
    • 私もたった今サブスクを解約した
      Sam Altmanへの残っていた敬意も消え、AIが人間の貪欲に汚染された現実に嫌悪感を覚える
      OpenAIが非営利として始まった頃の理想は完全に消えた
      みんな解約して、こういう企業やCEOには重い課税をすべきだ
    • 実のところ私はすでに4か月前にClaudeとGeminiへ移っていた
      製品の品質を見ても、OpenAIが以前のようではないと感じていた
    • すべての会話を削除し、アカウントも完全に消した
    • 私も同じ立場だ。もうOpenAIには一銭も使わない
      Googleがどんな選択をするのか見守るつもりだ
  • Sam AltmanはAI業界で最も信頼しにくい人物の一人だと思う
    彼の言う「武力行使に対する人間の責任」のような表現は、責任回避的な発言に聞こえる
    • 「人間の責任」は「人間の決定」とは違う
      結局、自律型致死兵器も可能だという意味だ
      大統領や国防総省が「責任者」と明記されても、実際に責任追及は不可能
  • 政府機関の名前を「Department of War」と呼ぶことにした時点ですべてが分かる
  • 国務次官が説明した、OpenAIとAnthropicの契約の違いについての話がある
    1つ目の投稿では、OpenAIの契約には法的制約を基準にした安全装置が含まれているという
    2つ目の投稿では、「あらゆる合法的利用」を基準に契約が結ばれており、これは民主的システムに権限を置くアプローチだと主張している
    Anthropicはこうした妥協案を拒否したという
    • だが、政府が「合法なことしかしない」と約束してもまったく安心できない
      過去にも違法行為を合法に見せかけた例は多く、法律そのものを変えてしまったこともある
      結局、法律だけでは政府の権力乱用を防げない
    • その次官の発言は行政府内部のPR発言にすぎず、客観的分析ではない
    • しかも彼は実際の交渉に参加した人物ではない
      彼の説明が正しいとしても、信頼できる媒体が契約全文を公開するまでは信じがたい
      もし事実なら、OpenAIと米軍をボイコットする程度の対応が妥当だろう
  • CNNの報道によれば、OpenAIもAnthropicと同じレッドラインを持っているという
    関連記事
    • だが、トランプ政権に論理的一貫性を期待するのは無理だ
      おそらく問題はレッドラインではなく、政府がAnthropicを政治的な敵と見なしたことなのかもしれない
  • 最初はSam Altman特有の日和見的な行動に見え、私もサブスクを解約するか悩んだ
    だが、もう少し客観的に見ると、「合法的利用」を誰が判断するのか、政府なのかAI企業なのかが核心だ
    関連ツイートを見ると、Anthropicはこの基準をClaudeの憲法に直接反映させようとしていたという
    結局私は、OpenAIの明確な立場が出るまでサブスクを解約した
    • 実際、DoWはAnthropicの条件に1年以上同意していた
      それなのに突然、SCR指定とDPAによる強制買収をちらつかせて再交渉を要求した
      もしOpenAIの契約がAnthropicと似ているなら、これは本当に二重基準で不当なこと
  • OpenAIがAnthropicと同じレッドラインを設けているのに契約が締結されたのは妙だ
    • たぶんSamは国防総省に一時的なレッドラインだと約束したのだろう
      時間が経てば自律兵器向けモデルを認め、監視機能はPalantirを通じて迂回することもできる
    • SamはAnthropicをけん制するために政府とのコネを使ったように見える
    • Samの言葉は信用できない
      Anthropicを悪く見せるための戦略的な嘘である可能性が高い
    • 「原則には同意するが、自分では守らない」というような二重的な態度に見える
    • 結局、本当の目的は「AI契約をSamに集中させること」で、レッドライン論争は口実にすぎなかった
  • 私もアプリを削除してサブスクを解約した
    OpenAIはユーザーベースなしでは、現在の過大評価された企業価値を維持できない
    すでに他のモデルも十分競争力がある
  • 今や、倫理的な技術者たちが集まれるグループが必要だ
    こうした腐敗した振る舞いにはうんざりしている
    • 「倫理的テクノロジスト」であることを簡単に表現し、互いにつながれる新しい旗印が必要だ