- AI研究企業 Anthropic が、自社の中核安全方針である Responsible Scaling Policy(RSP) の主要な誓約を撤回
- 従来は安全対策が十分に保証されなければ AIモデルの訓練を停止すると約束していたが、新方針ではこの条項が削除された
- 新しいRSPでは、透明性の強化 と 競合他社と同等以上の安全への取り組み を約束し、リスクが深刻な場合には開発を「遅らせる」可能性があると明記
- 同社は今回の変更について、市場圧力によるものではなく 政治・科学的現実への対応 だと説明
- 専門家は今回の措置について、AIの破局的リスクに対する社会的備えの不足 を示すシグナルだと評価
RSP(Responsible Scaling Policy)変更の背景
- Anthropicは2023年、安全対策が十分に実証されない限り AIシステムの訓練は行わない という誓約を発表
- これは、市場競争よりも安全を優先する企業イメージを強化する中核方針だった
- 最近、同社はRSPを全面的に改定し、事前の安全保証なしにはモデルを公開しない という約束を撤回
- Jared Kaplan(Chief Science Officer) は、「AIの進歩があまりに速いため、一方的な約束は現実的ではない」と述べた
新方針の主な内容
- 新しいRSPには、AI安全リスクに関する透明性の拡大 が含まれる
- Anthropicモデルの安全テスト結果を追加で公開し、競合他社と同等以上の安全対策を維持または上回ることを明記
- 同社がAI競争で先頭にあり、破局的リスクが大きいと判断される場合には開発を「遅らせる」 ことがある
- ただし、以前のように一定水準以上のモデル訓練を禁じる 明確な制限線はなくなった
方針変更の産業的文脈
- Anthropicは最近、Claudeモデル と Claude Code の成功により商業的成果を上げている
- 2026年2月、300億ドルの資金調達、企業価値約 3,800億ドル、年間売上成長率 10倍 を報告
- 同社の B2B中心のビジネスモデル は、OpenAIの消費者中心戦略より信頼性が高いと評価されている
- Kaplanは今回の変化について、市場圧力によるものではなく 政治・科学環境の変化に応じた実務的調整 だと強調
規制と科学的限界
- AnthropicはRSP導入当時、他社も同様の措置を採用することを期待していたが、そうはならなかった
- 米国連邦レベルでの AI規制法案の不在、トランプ政権の 規制緩和路線、国際協力の 挫折 が続いている
- AI評価科学の複雑さも問題として指摘されている
- 2025年、Anthropicは自社モデルが バイオテロに悪用される可能性を排除できない と発表したが、これを立証する科学的根拠は不十分だった
内部議論と意思決定の過程
- 約1年にわたり、経営陣は新たな環境に合わせたRSP改定案を議論してきた
- 核心となる論点は、AI安全研究のためには最前線のモデルを自ら開発する必要がある という創業時の原則だった
- Kaplanによれば、CEO Dario Amodei は「競合他社が開発を続ける状況でAnthropicだけが止まれば、むしろより危険だ」と判断した
- 新しいRSPの序文には、「最も弱い保護措置しか持たない開発者が速度を決めることになれば、責任ある開発者は安全研究能力を失う」と明記されている
外部評価と懸念
- Chris Painter(METR政策ディレクター) は今回の変更について理解可能だとしつつ、AIの破局的リスクに対する社会的備えの不足 を露呈していると評価
- Anthropicが「リスク評価と緩和方法が技術進歩の速度に追いつかず、緊急対応モード(トリアージモード) に移行した」と述べた
- Painterは、新方針の 透明なリスク報告と安全ロードマップの公開 を前向きに評価した一方で、
- 以前のRSPにあった 二元的な中止基準(binary threshold) がなくなったことで、リスクが徐々に高まる 『ゆでガエル効果』 が生じる可能性を懸念
今後の計画と公開の約束
- Anthropicは、新しいRSPが従来方針の中核的利点を維持していると説明
- 過去には、モデル公開の制限が 安全な緩和策の開発を促す動機 として機能していた
- 新方針でもこの動機を維持するため、『Frontier Safety Roadmaps』 を定期的に公開する予定
- また、3〜6か月ごとに『Risk Reports』 を発行し、
- モデルの能力、脅威シナリオ、リスク緩和措置、全体的なリスク水準の評価を含める計画
- Kaplanは、「競合他社が破局的リスクに対して透明性を持って対応するなら、Anthropicも 同等またはそれ以上の安全基準 を維持する」と強調した
2件のコメント
アンソロピックがどれだけ意地を張っても、結局は米国防総省がやれと言えば従うしかないのでしょう。結局、こうなるのは既定路線だったのではないでしょうか。
Hacker Newsの反応
AnthropicがAIモデル訓練中止の約束を撤回した理由を「競合他社が先行しているから」だと明かしたのを見て、結局は金のためだと露呈したように思える
「みんなが犬を蹴っているなら、うちもそうするしかない」という理屈に聞こえる。
人々はAnthropicを「善良な会社」だと信じていたが、結局はどこも同じで利益だけを追う存在だ
だが現実には、ほとんどのAI企業は「紙の上の政府」の下にある
AI企業だけの問題ではないが、だからといって正当化されるわけではない
だから安全、環境、反腐敗の規制がどうしても必要だ
AIスタートアップの典型的なサイクルのように見える
「人類を救うために堀を築こう」→「オープンソースの競合を規制しよう」→「安全はQ3の業績の邪魔になる」
実際には閉じているのに「開かれている」とガスライティングしている
以前Anthropicで働いていたが、Jared Kaplanのような人たちは本気で安全研究とフロンティア技術のバランスを考えていた
だが今回の決定には失望している。私は「Responsible Scaling Policy」がこういう状況でも守られる実質的な約束だと信じていた
その約束がAnthropicを「最も危険性の低い研究所」に見せていたのに、今ではそのシグナルが弱まった
今後は原則より地位の維持が優先されるのではないかと心配だ
それでも価値観が残っているなら、完全に価値観のない研究所ばかりの中ででも影響力を行使するほうがましだと思う
道義的責任は私たち全員で分かち合うべきだ
そのシグナルを自ら撤回したということは、もう別の市場に向かって動くという意味だ
応募者にAI安全についてのエッセイを書かせ、みんなで「世界を救う」という芝居をしていた
結局、今のように金がかかると誰も口を開かない
企業は構造的に利益最大化という本能から逃れられないからだ
今回の決定はMozillaがDRMを受け入れた瞬間に似ている
完璧ではないが、それでもAnthropicは少なくとも責任感を持とうとする試みをしている
OpenAIと比べれば、少なくともまだ信頼する余地はある
記事タイトルは大げさだ。今回の論争はPentagonとの交渉ではなく、Anthropicが公開したResponsible Scaling Policy 3.0に関する内容だ
むしろ予防的措置である可能性もある
政府の圧力があったのに、記事ではまったく触れられていない
「最初に安全検証なしでモデルを公開したとき、誰も何も言わなかった…」で始まる文章は警告の寓話のように聞こえる
結局、誰も備えず、問題が起きたときには手遅れだったという話だ
本当の問題は技術より政治と文化の領域にある
このタイミングで安全の誓約を撤回したのは意味深だ
こういう企業は倫理規範に従っていても、利益が脅かされるとすぐに捨てる
結局の目的はホワイトカラー労働の価値切り下げだ
彼らはその転換を倫理的に導くのか、それとも富を株主に移すだけなのか
蛇が自分の尾を食うようなものだ
企業の本質は利益追求であり、それ自体は悪くないが、道徳的ジェスチャーは偽善的に感じられる
Googleの「Don’t be evil」は15年持ったが、AnthropicのResponsible Scaling Policyは2年半で消えた
AI理想主義の半減期はますます短くなっている
Anthropicの変化は残念だが、現実的には安全のためにも競争であまり遅れを取ってはいけない
今は実用主義が必要な時点だ。後でAnthropicが「悪く」なるかもしれないが、今はそれでも最も安全な側だ
CEOが戦争用途のAI利用を拒否した点は前向きに見ている
手遅れになる前に警戒すべきだ