14 ポイント 投稿者 GN⁺ 2026-02-26 | 2件のコメント | WhatsAppで共有
  • AI研究企業 Anthropic が、自社の中核安全方針である Responsible Scaling Policy(RSP) の主要な誓約を撤回
  • 従来は安全対策が十分に保証されなければ AIモデルの訓練を停止すると約束していたが、新方針ではこの条項が削除された
  • 新しいRSPでは、透明性の強化競合他社と同等以上の安全への取り組み を約束し、リスクが深刻な場合には開発を「遅らせる」可能性があると明記
  • 同社は今回の変更について、市場圧力によるものではなく 政治・科学的現実への対応 だと説明
  • 専門家は今回の措置について、AIの破局的リスクに対する社会的備えの不足 を示すシグナルだと評価

RSP(Responsible Scaling Policy)変更の背景

  • Anthropicは2023年、安全対策が十分に実証されない限り AIシステムの訓練は行わない という誓約を発表
    • これは、市場競争よりも安全を優先する企業イメージを強化する中核方針だった
  • 最近、同社はRSPを全面的に改定し、事前の安全保証なしにはモデルを公開しない という約束を撤回
  • Jared Kaplan(Chief Science Officer) は、「AIの進歩があまりに速いため、一方的な約束は現実的ではない」と述べた

新方針の主な内容

  • 新しいRSPには、AI安全リスクに関する透明性の拡大 が含まれる
    • Anthropicモデルの安全テスト結果を追加で公開し、競合他社と同等以上の安全対策を維持または上回ることを明記
  • 同社がAI競争で先頭にあり、破局的リスクが大きいと判断される場合には開発を「遅らせる」 ことがある
  • ただし、以前のように一定水準以上のモデル訓練を禁じる 明確な制限線はなくなった

方針変更の産業的文脈

  • Anthropicは最近、ClaudeモデルClaude Code の成功により商業的成果を上げている
    • 2026年2月、300億ドルの資金調達、企業価値約 3,800億ドル、年間売上成長率 10倍 を報告
  • 同社の B2B中心のビジネスモデル は、OpenAIの消費者中心戦略より信頼性が高いと評価されている
  • Kaplanは今回の変化について、市場圧力によるものではなく 政治・科学環境の変化に応じた実務的調整 だと強調

規制と科学的限界

  • AnthropicはRSP導入当時、他社も同様の措置を採用することを期待していたが、そうはならなかった
  • 米国連邦レベルでの AI規制法案の不在、トランプ政権の 規制緩和路線、国際協力の 挫折 が続いている
  • AI評価科学の複雑さも問題として指摘されている
    • 2025年、Anthropicは自社モデルが バイオテロに悪用される可能性を排除できない と発表したが、これを立証する科学的根拠は不十分だった

内部議論と意思決定の過程

  • 約1年にわたり、経営陣は新たな環境に合わせたRSP改定案を議論してきた
    • 核心となる論点は、AI安全研究のためには最前線のモデルを自ら開発する必要がある という創業時の原則だった
  • Kaplanによれば、CEO Dario Amodei は「競合他社が開発を続ける状況でAnthropicだけが止まれば、むしろより危険だ」と判断した
  • 新しいRSPの序文には、「最も弱い保護措置しか持たない開発者が速度を決めることになれば、責任ある開発者は安全研究能力を失う」と明記されている

外部評価と懸念

  • Chris Painter(METR政策ディレクター) は今回の変更について理解可能だとしつつ、AIの破局的リスクに対する社会的備えの不足 を露呈していると評価
    • Anthropicが「リスク評価と緩和方法が技術進歩の速度に追いつかず、緊急対応モード(トリアージモード) に移行した」と述べた
  • Painterは、新方針の 透明なリスク報告と安全ロードマップの公開 を前向きに評価した一方で、
    • 以前のRSPにあった 二元的な中止基準(binary threshold) がなくなったことで、リスクが徐々に高まる 『ゆでガエル効果』 が生じる可能性を懸念

今後の計画と公開の約束

  • Anthropicは、新しいRSPが従来方針の中核的利点を維持していると説明
    • 過去には、モデル公開の制限が 安全な緩和策の開発を促す動機 として機能していた
    • 新方針でもこの動機を維持するため、『Frontier Safety Roadmaps』 を定期的に公開する予定
  • また、3〜6か月ごとに『Risk Reports』 を発行し、
    • モデルの能力、脅威シナリオ、リスク緩和措置、全体的なリスク水準の評価を含める計画
  • Kaplanは、「競合他社が破局的リスクに対して透明性を持って対応するなら、Anthropicも 同等またはそれ以上の安全基準 を維持する」と強調した

2件のコメント

 
tsboard 2026-02-26

アンソロピックがどれだけ意地を張っても、結局は米国防総省がやれと言えば従うしかないのでしょう。結局、こうなるのは既定路線だったのではないでしょうか。

 
GN⁺ 2026-02-26
Hacker Newsの反応
  • AnthropicがAIモデル訓練中止の約束を撤回した理由を「競合他社が先行しているから」だと明かしたのを見て、結局は金のためだと露呈したように思える
    「みんなが犬を蹴っているなら、うちもそうするしかない」という理屈に聞こえる。
    人々はAnthropicを「善良な会社」だと信じていたが、結局はどこも同じで利益だけを追う存在だ

    • Anthropicが市場の理性を代表することはできない。そうした役割は政府の規制と監視体制が担うべきだ
      だが現実には、ほとんどのAI企業は「紙の上の政府」の下にある
    • 実際、「勝つことだけが重要」というのはほぼすべての業界に共通する現実だ
      AI企業だけの問題ではないが、だからといって正当化されるわけではない
    • 結局金がすべてなら、私は財布で投票することにしてMaxのサブスクリプションを解約した
    • 競争が規制なしに放置されれば、結局すべての成功した企業が詐欺と被害を生み出すことになる
      だから安全、環境、反腐敗の規制がどうしても必要だ
  • AIスタートアップの典型的なサイクルのように見える
    「人類を救うために堀を築こう」→「オープンソースの競合を規制しよう」→「安全はQ3の業績の邪魔になる」

    • 結局は「安全よりペンタゴンの予算のほうが重要だ」という宣言に行き着く
    • 市場支配者になった後は、自分たちが支援する非営利団体を通じて政府規制を誘導するだろう
    • 驚くべきなのは、こうした変化があまりにも早く起きたことだ
    • AIに限らず、「open」という言葉を掲げるほかの企業も似たようなものだ
      実際には閉じているのに「開かれている」とガスライティングしている
    • 政治家も規制が好きだ。特にワインとステーキが添えられるときはなおさら、という冗談まじりの批判だ
  • 以前Anthropicで働いていたが、Jared Kaplanのような人たちは本気で安全研究とフロンティア技術のバランスを考えていた
    だが今回の決定には失望している。私は「Responsible Scaling Policy」がこういう状況でも守られる実質的な約束だと信じていた
    その約束がAnthropicを「最も危険性の低い研究所」に見せていたのに、今ではそのシグナルが弱まった
    今後は原則より地位の維持が優先されるのではないかと心配だ

    • 「価値観に従って動いてほしい」というのはあまりにナイーブな期待かもしれない
      それでも価値観が残っているなら、完全に価値観のない研究所ばかりの中ででも影響力を行使するほうがましだと思う
    • RSU(株式報酬)を手放さないなら、経営陣にも同じことを期待することはできない
      道義的責任は私たち全員で分かち合うべきだ
    • 誓約には法的拘束力はないが、市場に送るシグナルとして意味がある
      そのシグナルを自ら撤回したということは、もう別の市場に向かって動くという意味だ
    • 去年Anthropicの面接を受けたが、倫理ショーのように感じた
      応募者にAI安全についてのエッセイを書かせ、みんなで「世界を救う」という芝居をしていた
      結局、今のように金がかかると誰も口を開かない
    • こうした原則は結局政府レベルでしか維持できない
      企業は構造的に利益最大化という本能から逃れられないからだ
  • 今回の決定はMozillaがDRMを受け入れた瞬間に似ている
    完璧ではないが、それでもAnthropicは少なくとも責任感を持とうとする試みをしている
    OpenAIと比べれば、少なくともまだ信頼する余地はある

  • 記事タイトルは大げさだ。今回の論争はPentagonとの交渉ではなく、Anthropicが公開したResponsible Scaling Policy 3.0に関する内容だ

    • もちろん両者がまったく無関係だと断言はできない
      むしろ予防的措置である可能性もある
    • むしろPentagonの件より今回の方針変更のほうが、より重大な変化だと思う
  • 政府の圧力があったのに、記事ではまったく触れられていない

    • 関連報道によれば、HegsethとAnthropic CEOのDario Amodeiの会談が確認されている
    • だから独占報道を取れたのではないか、という意見もある
    • 一部はこれを**世論操作(Consent manufacturing)**と見ている
    • 記事にHegsethの名前すら出てこない点を批判している
  • 「最初に安全検証なしでモデルを公開したとき、誰も何も言わなかった…」で始まる文章は警告の寓話のように聞こえる
    結局、誰も備えず、問題が起きたときには手遅れだったという話だ

    • こうした集団的無視は人間社会の慢性的な問題だ
    • 警告は十分にあったのに、人々は強欲と短期的思考に囚われていた
    • HN風に言い換えれば、結局私たち全員がそのシステムの共犯者だった
    • どこかターミネーター的な物語の導入部のようだ、という反応もある
    • しかし現実的には、AIが制御不能になるシナリオはまだ先の話だ
      本当の問題は技術より政治と文化の領域にある
  • このタイミングで安全の誓約を撤回したのは意味深だ
    こういう企業は倫理規範に従っていても、利益が脅かされるとすぐに捨てる
    結局の目的はホワイトカラー労働の価値切り下げ
    彼らはその転換を倫理的に導くのか、それとも富を株主に移すだけなのか

    • 今回のタイミングは政府圧力の号砲かもしれない
    • だが中間層が崩れれば、結局は消費者基盤も消える
      蛇が自分の尾を食うようなものだ
    • 「Don’t be evil」のようなスローガンは結局利益のための包装にすぎない
      企業の本質は利益追求であり、それ自体は悪くないが、道徳的ジェスチャーは偽善的に感じられる
  • Googleの「Don’t be evil」は15年持ったが、AnthropicのResponsible Scaling Policyは2年半で消えた
    AI理想主義の半減期はますます短くなっている

  • Anthropicの変化は残念だが、現実的には安全のためにも競争であまり遅れを取ってはいけない
    今は実用主義が必要な時点だ。後でAnthropicが「悪く」なるかもしれないが、今はそれでも最も安全な側

    • なぜそこまでAnthropicを信頼するのか、という質問もあった
      CEOが戦争用途のAI利用を拒否した点は前向きに見ている
    • だがこうした変化自体が、すでに悪くなりつつある兆候かもしれない
      手遅れになる前に警戒すべきだ
    • 世界は実用主義者のせいで壊れる、というシニカルな反応もあった