3 ポイント 投稿者 GN⁺ 2026-03-02 | 1件のコメント | WhatsAppで共有
  • 米国防総省(DoD) と機密環境での高度なAIシステム配備に関する契約を締結し、この契約条件をすべてのAI企業にも同様に適用するよう求めた
  • 協定では、大規模な国内監視、自律兵器システムの直接制御、高リスクな自動化意思決定にOpenAI技術を使用しないという3つのレッドラインを明示
  • クラウド専用配備方式を採用し、OpenAIが安全スタックに対する完全な裁量権を保持し、セキュリティ認可を受けたOpenAI人員がループに参加
  • Anthropicなどの既存契約よりより強力なガードレールを備えていると主張し、エッジデバイス配備を除外することで自律兵器専用化の可能性を遮断
  • AI企業と政府の間の民主的な協力体制構築の必要性を強調し、Anthropicとの対立の解消も政府に要請

契約の背景と目的

  • 米国防総省と機密環境での高度なAIシステム配備に関する契約を締結し、同一条件をすべてのAI企業にも提供するよう求めた
  • AI技術の重要性を踏まえ、民主的手続きとAI研究の深い協力が必要だという立場
  • 米国を防衛する人々が最良のツールを持つべきである一方で、この技術が世界に新たなリスクをもたらし得るという認識

3つのレッドライン

  • 大規模な国内監視(mass domestic surveillance) へのOpenAI技術の使用を禁止
  • 自律兵器システム(autonomous weapons systems) の直接制御へのOpenAI技術の使用を禁止
  • 高リスクな自動化意思決定(例: 社会信用システムなど)へのOpenAI技術の使用を禁止
  • 他のAI研究所が安全ガードレールを縮小または撤廃し、利用ポリシーのみに依存しているのとは異なり、OpenAIは多層的な保護アプローチの方がより効果的だという立場

契約の中核構成要素

  • 配備アーキテクチャ

    • クラウド専用配備で、OpenAIが直接運用する安全スタックを含む
    • ガードレールが除去されたモデルや安全訓練が施されていないモデルは提供しない
    • エッジデバイス配備を除外し、自律型致死兵器に使用される可能性を遮断
    • レッドライン違反の有無を独立して検証でき、分類器(classifiers)の実行および更新が可能
  • 契約条項

    • 国防総省はAIシステムを適用法令、運用要件、確立された安全および監督プロトコルに適合するあらゆる合法的目的に使用可能
    • 法律、規則、または省の方針が人間による統制を要求する場合、自律兵器を独立して指揮するためには使用不可
    • DoD Directive 3000.09(2023年1月25日付)に従い、自律および半自律システムにおけるAI利用は、配備前に現実的環境での厳格な検証、確認、テストを経なければならない
    • 情報活動時の個人情報処理は、合衆国憲法修正第4条、国家安全保障法(1947年)、外国情報監視法(1978年)、大統領令12333 および関連する国防総省指針を順守しなければならない
    • 米国市民の個人情報に対する無制限の監視を禁止
    • 国内法執行活動には、Posse Comitatus Act およびその他の適用法令が許容する場合にのみ使用可能
  • AI専門家の参加

    • セキュリティ認可を受けたOpenAIエンジニアが政府に前方展開して支援
    • セキュリティ認可を受けた安全およびアラインメント(alignment)研究者がループに参加

FAQの主な内容

  • 契約締結の理由

    • 米軍が潜在的な敵国によるAI技術統合の脅威に対処するため、強力なAIモデルが必要
    • 当初は機密配備のための安全装置とシステムが準備できていないと判断し、即時契約は行わず、レッドラインを守れるよう準備作業を進めた
    • 国家安全保障業務で性能向上のために中核的な技術的安全装置を取り除くことは正しいアプローチではない
    • 国防総省と米国AI研究所の間の緊張を緩和する目的もあり、同一条件をすべてのAI研究所に提供し、とりわけAnthropicとの問題解決を政府に要請
  • Anthropicとの比較

    • OpenAIの契約はAnthropicの既存契約よりより良い保証と、より責任ある安全装置を提供すると判断
    • クラウド専用配備(エッジではない)、独自の安全スタック維持、セキュリティ認可済みOpenAI人員の参加により、レッドラインはより執行可能
    • Anthropicがなぜこの契約を締結できなかったのかは分からないが、Anthropicやより多くの研究所がこれを検討することを望む
  • Anthropicの"サプライチェーンリスク"指定の可否

    • Anthropicを**"サプライチェーンリスク"に指定することに反対**しており、この立場を政府に明確に伝えた
  • 自律兵器の可能性

    • 安全スタック、クラウド専用配備、契約文言、既存の法律・規則・方針に基づき、自律兵器に使用されることはない
    • OpenAI人員がループに参加し、追加の保証を提供
  • 大規模監視の可能性

    • 安全スタック、契約文言、国防総省の国内監視を大きく制限する既存法に基づき、大規模監視には使用できない
  • 安全スタックなしでの配備可否

    • 安全スタックに対する完全な統制権を保持しており、安全ガードレールなしでは配備しない
    • 他のAI研究所がモデルのガードレールを縮小し、利用ポリシーを主要な安全装置として頼っているのとは異なり、OpenAIの多層的アプローチの方がより効果的
  • 政府が契約に違反した場合

    • 一般的な契約と同様に、相手方が条件に違反した場合は契約解除が可能
  • 法律または政策が変更された場合

    • 契約では監視および自律兵器に関する法律と政策を現行基準として明示的に参照
    • 将来法律や政策が変更されても、システムの利用は契約に反映された現行基準に適合しなければならない

Anthropicブログポストへの対応

  • Anthropicが提示した2つのレッドライン(大規模な国内監視、完全自律兵器)にOpenAIも同意し、これに自動化された高リスク意思決定という3つ目のレッドラインを追加
  • 大規模な国内監視: 国防総省がこれを違法とみなし、その目的での使用を計画していないことはやり取りの過程で明確であり、合法的利用に該当しないことを契約に明記
  • 完全自律兵器: 契約に含まれるクラウド配備環境では完全自律兵器を稼働させることはできず、これはエッジ配備が必要だから
  • これらの保護に加えて、安全スタックとOpenAI技術専門家のループ参加という追加の多層安全装置を保持

1件のコメント

 
GN⁺ 2026-03-02
Hacker Newsの意見
  • 私の解釈では、OpenAIと国防総省の契約は米国市民に対する大規模監視を禁じているように見えるが、実際にはすでに法律で禁じられている範囲でしか制限していない、という意味です。
    つまり、国防総省が民間企業から位置情報や金融取引のようなデータを大量に買い集め、OpenAIのツールで分析することも可能だと読めます。
    Anthropicの契約にはこうした条項はなかったと認識しています。
    もしこれが本当なら恐ろしいことです。ただ、最近の私は早計な結論を出しがちだったので、今回は判断を保留しています。
    (ちなみに私は元OpenAI社員で、現在の株主でもあります)

    • OpenAIはもはや倫理を語る資格のない会社に見えます。
      以前の非営利時代とは違い、今ではプライバシーポリシーを2回も変更して、私のデータをさらに多く収集しています。
      設定をオフにする過程も複雑で、ダークパターンだらけです。データダウンロード機能も実質的に動いていません。
    • これは文字どおり「法律にすでにある制限に従うだけ」という意味です。
      Darioが言っていた**weasel language**(言い逃れ的な表現)の典型です。
    • 結局のところ問題はThird Party Doctrine(第三者原則)です。
      この原則がなくなれば、こうした悪夢のようなシナリオの大半は消えるでしょう。
    • 政府のNSA式監視が常に「合法的」と書かれたメモとともに進められるという点を、人々はしばしば忘れます。
    • 文そのものがあまりにも混乱しています。
      「Shall not be used as consistent with these authorities」という表現は文法的にもおかしいです。
      弁護士たちがわざと曖昧に書いて、PR向けの解釈の余地を残したように見えます。
  • 「The Department of War may use the AI System for all lawful purposes…」という文言は、結局のところ法律が許す限りあらゆる用途に使えるという意味です。
    Anthropicは独自の道徳基準を適用しようとしましたが、OpenAIは政府の要求をそのまま受け入れました。
    個人的にはどちらの立場も理解できますが、政府がAnthropicに示した態度は悪意的で、米国の利益にも有害でした

    • 一方の契約は「ターミネーターを作ってはいけない」で、もう一方は「法務チームが大丈夫と言えばターミネーターを作ってもよい」です。大きな違いです。
    • 「合法的」という言葉がすべてを支えています。
      政府はすでに違法なことを公然と行っているのに、秘密裏に何が起きているのかは誰にも分かりません。
      結局、政府を信頼できないという道徳的立場がAnthropicの核心でした。
    • 文言をよく見ると、国防総省が「合法的」だと判断する限り、どんな用途にもモデルを使えます。
      規定を変えるのも彼ら次第です。
      Sam Altmanは無邪気なのか、あるいは私たちにそう思わせようとしているのかです。
    • 「OpenAI技術は自律兵器システムには使用しない」という従来の立場とも一貫していません。
    • 戦争中に遭難した戦闘員へ発砲するよう勧める状況を想像すればいいのです。
      それは明白な戦争犯罪ですが、誰が「合法性」を判断するのでしょうか。OpenAIですか、国防長官ですか、それとも裁判官ですか。
  • 「法的に許容されるあらゆる目的」という表現は、法律を作る主体が自らを制限していないことを意味します。

    • 大規模監視の場合、憲法改正まで必要になるので、単に法律を変えるよりも複雑です。
      しかし違法だと知りながら政府を助けるなら、共謀罪に当たります。政府は免責されても、OpenAIはそうではないかもしれません。
    • しかも政府は秘密裏にルールを作り、執行できます。
    • 「有罪判決を受けた詐欺師の言葉を信じられないということか?」という皮肉めいた反応もありました。
  • 私はAnthropicが完全な道徳的聖人君子だとは思っていません。
    ChatGPTも同じです。
    ですが現時点でChatGPTを解約してClaudeを使うのは、私が伝えたいメッセージを示す行動です。

    • こうした移行する意思を示すことが重要です。
      ユーザーが論争が起きればすぐ離れると分かれば、企業も慎重になります。
    • しかも今はClaudeのほうがChatGPTよりずっと性能が高いです。
    • Claudeを一般的な検索の代替として使ってみようと思います。たとえばレシピや製品レビューのような簡単な質問に向いているのか気になります。
    • 長期的にはオープンウェイトモデルが最も優れるようになると思います。
      Anthropicが今回屈しなかったのはすごいことです。
      GPUは不足していますが、私もChatGPTをやめてClaudeかKimiに移る予定です。
  • 結局、社員が道徳的立場を取っても、決定権がなければ無意味です。
    唯一の力は「退職」です。

    • しかし集団退職が起きれば、それは非常に大きな力になります。
    • 実際、こうした状況を防ぐために労働組合があるのです。
      中核エンジニアたちが一斉に止まれば、Sam Altman一人では会社を維持できません。
    • OpenAIの社員たちは2年前、Sam Altmanが解任されたとき、彼を復帰させる力を持っていました。
    • 社員が団結すれば会社を止めることもできます。しかしOpenAIのような場所でそんな連帯文化を期待するのは難しいです。
  • OpenAIは「AIの道徳的責任を法律に委ねよう」という形で、道徳的責任の回避をしています。

  • 純資産が200万ドルを超えるOpenAI社員がまだ残っているなら、道徳的コンパスが壊れているということです。
    もはやPalantirやxAIで働くのと変わりません。

    • 「金を枕にして泣くよ、もちろん倫理的にね」という嘲笑混じりの返信もありました。
  • 「あらゆる合法的目的に使用できる」という文言は、結局不十分な規制を根拠に国防総省が望んでいたものを手に入れた、という意味です。

  • このブログ記事は状況をさらに悪く見せています。
    Anthropicが拒否した議論の余地のある用途について明確な線引きをしていません。
    ただ「合法的で、テスト済みの場合にのみ可能だ」と言っているだけです。
    まるで1930年代のIBMがドイツに機械を売って「私たちは知らなかった」と言っていたように感じられます。
    結局、軍が欲しかったのは自律兵器と大規模監視、そしてそれ以外にも法的には合法でも道徳的にはグレーゾーンの用途だったのです。