- OpenAI CEOのSam Altmanが、米国防総省(DoD)と機密ネットワークにモデルを配備する合意に達したと発表
- 合意には、国内での大規模監視の禁止と、自律兵器システムを含む武力行使に対する人間の責任という原則が含まれており、国防総省もこの原則に同意
- モデルが意図どおりに動作するよう技術的セーフガードを構築し、クラウドネットワークでのみ配備し、現地配備エンジニア(FDE)を投入する条件
- OpenAIは、国防総省がこの同じ条件をすべてのAI企業に提案することを求めており、すべての企業が受け入れ可能な条件だとの立場
- 法的・政府レベルの措置よりも、合理的な合意による状況の緩和を強く望むと表明
合意内容
- OpenAIが国防総省の機密ネットワークにモデルを配備することで合意
- 交渉の過程で、国防総省は安全に対する深い敬意と、最善の結果のために協力しようとする意思を示したと評価
安全原則
- AIの安全と利益の広範な分配が、OpenAIのミッションの中核
- 合意に含まれた2つの中核的な安全原則:
- 国内での大規模監視の禁止
- 自律兵器システムを含む武力行使に対する人間の責任
- 国防総省もこの原則に同意し、これを法律と政策に反映し、合意書に明記
技術的セーフガードと配備条件
- モデルが意図どおりに動作するよう**技術的セーフガード(technical safeguards)**を構築し、これは国防総省も求めていた事項
- モデルの支援と安全確保のために**現地配備エンジニア FDE(Field Deployment Engineer)**を投入
- クラウドネットワークでのみ配備する条件
業界全体への拡大要請
- OpenAIは国防総省に、この同じ条件をすべてのAI企業に提案することを要請
- すべての企業が受け入れ可能(willing to accept)な条件だとの立場
- 法的・政府レベルの措置から離れ、合理的な合意による状況の緩和を強く望むと表明
3件のコメント
結局、米国防総省がAnthropicを見限ってOpenAIを選んだ形ですが、いわゆる言い回しの違いがありますね。
OpenAIは、技術的な安全装置の構築、FDE(現場エンジニア)の投入、クラウド専用デプロイといった具体的な履行メカニズムをあわせて提案
Anthropicは利用規約レベルの例外条項を求めた
国防総省の立場では、**「民間企業が個別のユースケースに拒否権を行使する」**と受け止めて、見せしめのように発表したと。
この合意は、Anthropicがサプライチェーンリスクに指定されてからまもなく発表されたのですが、
Axiosの記事を見ると、国防総省はAnthropicとの対立を他のAI企業との交渉でトーン設定に使い、
OpenAIはその圧力の中で、国防総省が受け入れられる形で合意をまとめたわけですね。
公式見解の表現の違いも大きいですね。
Sam Altmanは**「国防総省は安全に深い敬意を示した」と言い、
Anthropic側は最後まで「国防総省の要求には良心に照らして同意できない」**というトーンでした。
同じ原則でも、国防総省に面子を立てるかどうかの違いが大きかったように見えますが、
結果的にはOpenAIが受け入れたことでAnthropicだけが不格好に見える構図になったので、
サム・アルトマンが最後に「この条件をすべてのAI企業に同じように提案してほしい」と付け加えて、
Anthropicへの措置を緩和してほしいという迂回的なメッセージを送ったようにも見えますね.
同じレベルの契約であっても、信頼度やイメージがずいぶん違って感じられますね。
GPTのサブスクも解約したほうがよさそうですね。
Hacker Newsの意見
Anthropicが求めた条件をOpenAIも貫いていたなら、政府はこの契約を承認しなかったはず
結局、OpenAIは実際にはレッドラインを執行しないという暗黙の合意があるとしか思えない
今残っている人たちの多くは、たぶん株式のためにいる
「国内での大規模監視の禁止」と「武力行使に対する人間の責任」を明記し、DoW(Department of War) もこれに同意したと述べている
無駄に政治的資本を消耗し、より悪い取引を結ぶのが彼らのやり方だ
OpenAIがAnthropicと同じ条件を提示していたのに、ロビー資金やPR効果のおかげで政府が見逃した可能性もある
私もChatGPTを削除してサブスクを解約し、Anthropicにより多く投じることにした
原則ある姿勢が重要だと感じたし、もうOpenAIは信頼していない
Sam Altmanへの残っていた敬意も消え、AIが人間の貪欲に汚染された現実に嫌悪感を覚える
OpenAIが非営利として始まった頃の理想は完全に消えた
みんな解約して、こういう企業やCEOには重い課税をすべきだ
製品の品質を見ても、OpenAIが以前のようではないと感じていた
Googleがどんな選択をするのか見守るつもりだ
彼の言う「武力行使に対する人間の責任」のような表現は、責任回避的な発言に聞こえる
結局、自律型致死兵器も可能だという意味だ
大統領や国防総省が「責任者」と明記されても、実際に責任追及は不可能だ
1つ目の投稿では、OpenAIの契約には法的制約を基準にした安全装置が含まれているという
2つ目の投稿では、「あらゆる合法的利用」を基準に契約が結ばれており、これは民主的システムに権限を置くアプローチだと主張している
Anthropicはこうした妥協案を拒否したという
過去にも違法行為を合法に見せかけた例は多く、法律そのものを変えてしまったこともある
結局、法律だけでは政府の権力乱用を防げない
彼の説明が正しいとしても、信頼できる媒体が契約全文を公開するまでは信じがたい
もし事実なら、OpenAIと米軍をボイコットする程度の対応が妥当だろう
関連記事
おそらく問題はレッドラインではなく、政府がAnthropicを政治的な敵と見なしたことなのかもしれない
だが、もう少し客観的に見ると、「合法的利用」を誰が判断するのか、政府なのかAI企業なのかが核心だ
関連ツイートを見ると、Anthropicはこの基準をClaudeの憲法に直接反映させようとしていたという
結局私は、OpenAIの明確な立場が出るまでサブスクを解約した
それなのに突然、SCR指定とDPAによる強制買収をちらつかせて再交渉を要求した
もしOpenAIの契約がAnthropicと似ているなら、これは本当に二重基準で不当なことだ
時間が経てば自律兵器向けモデルを認め、監視機能はPalantirを通じて迂回することもできる
Anthropicを悪く見せるための戦略的な嘘である可能性が高い
OpenAIはユーザーベースなしでは、現在の過大評価された企業価値を維持できない
すでに他のモデルも十分競争力がある
こうした腐敗した振る舞いにはうんざりしている