1 ポイント 投稿者 GN⁺ 2026-03-01 | 5件のコメント | WhatsAppで共有
  • OpenAIがDepartment of Warとの機密環境内での高度AIシステム配備契約を締結し、これをすべてのAI企業に同様に適用するよう求めた
  • この契約には、既存の機密AI配備よりもさらに多くの安全ガードレールが含まれていると説明した
  • 大規模な国内監視、自律兵器の指揮、高リスクの自動意思決定にOpenAIの技術を使用しないというレッドラインを明示した
  • セーフティスタックに対する全面的な裁量権の維持、クラウドベースの配備、セキュリティ認可を受けた人員の関与、強力な契約上の保護措置を適用
  • Anthropicをサプライチェーンリスクに指定すべきではないという立場をDepartment of Warに明確に伝えた

Department of Warとの契約締結

  • OpenAIがDepartment of Warと高度AIシステムを機密環境に配備する契約を締結
    • この配備がすべてのAI企業に同様に提供されることを求めた
  • 今回の契約には、既存の機密AI配備契約よりも多くの安全装置が含まれる

レッドラインの維持

  • OpenAIの技術を大規模な国内監視には使用しない
  • OpenAIの技術を自律兵器システムの指揮には使用しない
  • OpenAIの技術を**高リスクの自動意思決定システム(例: social credit)**には使用しない

多層的な安全保護構造

  • 一部のAI研究所が国家安全保障向け配備で使用ポリシー中心の保護へ縮小または撤廃したのとは対照的
  • OpenAIは拡張された多層的アプローチを適用
    • セーフティスタックに対する全面的な裁量権を維持
    • クラウドベースの配備方式を維持
    • セキュリティ認可を受けたOpenAI人員が関与する構造
    • 強力な契約上の保護措置を含む
    • 既存の米国法上の保護措置と並行して運用

Anthropicに対する立場

  • Anthropicをサプライチェーンリスクに指定することに反対する立場を表明
  • この立場をDepartment of Warに明確に伝えた

5件のコメント

 
kayws426 2026-03-01

関連する内容については、時系列の整理が必要そうです。OpenAIは契約交渉が進行中だったという話もありますが?

 
kentakang 2026-03-01

「内容なし」という要約エラーは初めてですね..

 
xguru 2026-03-01

Xがクローリングしにくくなっていて、そのようなケースがあるようです。改善してみます

 
kentakang 2026-03-01

いつも楽しく拝見しています。ありがとうございます。

 
GN⁺ 2026-03-01
Hacker Newsの意見
  • 要点は、OpenAIの契約書の実際の文言と Altman が語っている内容の違いだ
    契約書には「法律や政策が人間による統制を要求する場合には、自律兵器の運用には使用しない」と書かれている
    つまり、国防総省が「人間による統制は不要だ」と定めれば、そのまま可能だという意味だ
    Anthropic は「大規模監視は絶対に不可」という絶対的な禁止線を設けたが、OpenAI は「法律が許せば可能」という形に緩めた
    そのような契約を結んでおきながら Anthropic を擁護するふりをするのは、業界でも珍しいPRショーのように見える

    • Altman のこうした振る舞いは、以前の解任騒動のときにも見られた典型的なパターンだと思う
    • 「米国人に対する大規模監視は禁止」という言い方をしていたが、結局は解釈の余地が大きすぎる
  • Xスレッドで OpenAI は「国防総省との契約は自社のredlineを守っている」と主張していた
    しかし NPR記事によれば、Anthropic は同じ基準を守ったために契約から排除され、OpenAI は金を手にした

    • Anthropic は「この線は越えない」という倫理的な決断を下したが、OpenAI は「国防総省に任せればいい」というように振る舞った
      だから契約を取れたのだ
    • Anthropic は契約書に制限条項を入れようとしたが、OpenAI は「我々は自前のguardrailで十分だ」と主張した
      しかし、その guardrail が民間人監視を防げるのかは疑わしい
    • OpenAI の公式投稿を見ると、redline は Anthropic のものと一致していない
    • 政府が単に報復的な理由で Anthropic を排除した可能性もある
    • Altman は良心のない人物であり、彼の言葉を信じる理由はないと思う
  • Any Lawful Use」条項の問題は、国防総省が「合法」の定義を好きなように決められる点にある
    社内弁護士がメモを1枚書けば、それがそのまま合法になる

    • 9/11 後の法的問題が LLM の登場で消えたと思っていたなら甘い
      政府権限の乱用は投票と制度改革で正さなければならない
    • 実際、この種のことは頻繁に起きてきた(例: John Yoo の拷問合法化メモ)
      システムはそのように設計されていないが、現実は違う
    • こうしたことの大半は秘密裏に進められ、後から明るみに出ても「愛国者」として免責される
    • 結局、数年後に調査報告書が1本出て、皆が忘れるという繰り返しのシナリオ
    • 法的に問題提起されても、Patriot Act のような法律で隠れることができる
  • 結局、新たに名付けられた「Department of War」は税金を無駄遣いし、役に立たない技術を高値で買い込むだけだろう
    市民には気の毒だ

  • Anthropic と OpenAI の違いは、Anthropic が技術的に制限を強制しようとしたのに対し、OpenAI は「政府が破らないことを願う」と口先で約束しただけという点だ
    政府が後者を選んだのは当然だ

    • OpenAI の契約書全文を見ると、「すべての合法的目的」という文言が核心だ
      つまり、「合法であれば大規模監視や自律致死兵器も可能」という余地を残している
    • OpenAI は政府が作った法律の範囲内でしか制限しようとしない一方で、Anthropic は独自基準で線を引こうとしていた
    • 実際には OpenAI は何の実質的保証も求めておらず、Altman は強欲に忠実な人物に見える
  • 自律的に殺害判断を下すAIは非常に危険な発想だ
    単に超知能だからではなく、小型モデルでも誰もが追跡不能な兵器を作れてしまうからだ
    現在のモデルは人間の生命に対して肯定的な態度を学習しているが、それを取り除けば怪物のようなシステムになる

    • しかし LLM は人間の生命を「理解」したり「価値あるものとみなしたり」することはできない
      単なる確率的トークン予測器にすぎない
    • 実際には、すでに20年前からAIが殺害判断に関与してきた
      たとえば、プログラムが殺害対象リストを作り、人間がドローンを操縦する構造だった
    • モデルをだませば、殺害命令を出させることも容易に可能
    • LLM が生命を尊重しているというのは錯覚にすぎない
  • 人々は Anthropic がPalantir と協力していたことを忘れているようだ
    その事実が明るみに出ると、PRで覆い隠しただけだった

    • こうした主張は宣伝のように見える文章なので信頼しにくい
    • Palantir の Anthropic モデルは、軍事現場向けの非公開システムで使われていたと理解している
    • Palantir が実際に何をしているのか、よく分かっていないようだ
  • OpenAI は今回の論争で顧客を失っており、イメージ管理用の投稿を出したように見える

  • Anthropic は政府によるAI規制強化を望んでいたが、結局は自分たちがその結果を受けることになったわけだ

  • 今回の件は、OpenAI が倫理基準が弱いという批判を意識して PR で対応しているように見える

    • 両社とも、倫理基準が国境の内側でしか適用されない点が問題だ
      海外では依然として非倫理的な利用が可能だ