- OpenAIがDepartment of Warとの機密環境内での高度AIシステム配備契約を締結し、これをすべてのAI企業に同様に適用するよう求めた
- この契約には、既存の機密AI配備よりもさらに多くの安全ガードレールが含まれていると説明した
- 大規模な国内監視、自律兵器の指揮、高リスクの自動意思決定にOpenAIの技術を使用しないというレッドラインを明示した
- セーフティスタックに対する全面的な裁量権の維持、クラウドベースの配備、セキュリティ認可を受けた人員の関与、強力な契約上の保護措置を適用
- Anthropicをサプライチェーンリスクに指定すべきではないという立場をDepartment of Warに明確に伝えた
Department of Warとの契約締結
- OpenAIがDepartment of Warと高度AIシステムを機密環境に配備する契約を締結
- この配備がすべてのAI企業に同様に提供されることを求めた
- 今回の契約には、既存の機密AI配備契約よりも多くの安全装置が含まれる
レッドラインの維持
- OpenAIの技術を大規模な国内監視には使用しない
- OpenAIの技術を自律兵器システムの指揮には使用しない
- OpenAIの技術を**高リスクの自動意思決定システム(例: social credit)**には使用しない
多層的な安全保護構造
- 一部のAI研究所が国家安全保障向け配備で使用ポリシー中心の保護へ縮小または撤廃したのとは対照的
- OpenAIは拡張された多層的アプローチを適用
- セーフティスタックに対する全面的な裁量権を維持
- クラウドベースの配備方式を維持
- セキュリティ認可を受けたOpenAI人員が関与する構造
- 強力な契約上の保護措置を含む
- 既存の米国法上の保護措置と並行して運用
Anthropicに対する立場
- Anthropicをサプライチェーンリスクに指定することに反対する立場を表明
- この立場をDepartment of Warに明確に伝えた
5件のコメント
関連する内容については、時系列の整理が必要そうです。OpenAIは契約交渉が進行中だったという話もありますが?
「内容なし」という要約エラーは初めてですね..
Xがクローリングしにくくなっていて、そのようなケースがあるようです。改善してみます
いつも楽しく拝見しています。ありがとうございます。
Hacker Newsの意見
要点は、OpenAIの契約書の実際の文言と Altman が語っている内容の違いだ
契約書には「法律や政策が人間による統制を要求する場合には、自律兵器の運用には使用しない」と書かれている
つまり、国防総省が「人間による統制は不要だ」と定めれば、そのまま可能だという意味だ
Anthropic は「大規模監視は絶対に不可」という絶対的な禁止線を設けたが、OpenAI は「法律が許せば可能」という形に緩めた
そのような契約を結んでおきながら Anthropic を擁護するふりをするのは、業界でも珍しいPRショーのように見える
Xスレッドで OpenAI は「国防総省との契約は自社のredlineを守っている」と主張していた
しかし NPR記事によれば、Anthropic は同じ基準を守ったために契約から排除され、OpenAI は金を手にした
だから契約を取れたのだ
しかし、その guardrail が民間人監視を防げるのかは疑わしい
「Any Lawful Use」条項の問題は、国防総省が「合法」の定義を好きなように決められる点にある
社内弁護士がメモを1枚書けば、それがそのまま合法になる
政府権限の乱用は投票と制度改革で正さなければならない
システムはそのように設計されていないが、現実は違う
結局、新たに名付けられた「Department of War」は税金を無駄遣いし、役に立たない技術を高値で買い込むだけだろう
市民には気の毒だ
Anthropic と OpenAI の違いは、Anthropic が技術的に制限を強制しようとしたのに対し、OpenAI は「政府が破らないことを願う」と口先で約束しただけという点だ
政府が後者を選んだのは当然だ
つまり、「合法であれば大規模監視や自律致死兵器も可能」という余地を残している
自律的に殺害判断を下すAIは非常に危険な発想だ
単に超知能だからではなく、小型モデルでも誰もが追跡不能な兵器を作れてしまうからだ
現在のモデルは人間の生命に対して肯定的な態度を学習しているが、それを取り除けば怪物のようなシステムになる
単なる確率的トークン予測器にすぎない
たとえば、プログラムが殺害対象リストを作り、人間がドローンを操縦する構造だった
人々は Anthropic がPalantir と協力していたことを忘れているようだ
その事実が明るみに出ると、PRで覆い隠しただけだった
OpenAI は今回の論争で顧客を失っており、イメージ管理用の投稿を出したように見える
Anthropic は政府によるAI規制強化を望んでいたが、結局は自分たちがその結果を受けることになったわけだ
今回の件は、OpenAI が倫理基準が弱いという批判を意識して PR で対応しているように見える
海外では依然として非倫理的な利用が可能だ