Anthropic、中国AI企業によるClaudeへの不正な蒸留攻撃の検知と対応を公開
(anthropic.com)Anthropicは、DeepSeek、MiniMax、Moonshot AIの中国AI企業3社がClaudeの能力を不正に抽出していたと正式に発表しました。
攻撃規模
3社は合計24,000件の偽アカウントを作成し、Claudeと1,600万件を超える対話を生成しており、これはAnthropicの利用規約と地域アクセス制限に明確に違反するものです。
各社の特徴は次のとおりです。DeepSeekは15万件を超える対話を通じて、基礎的な論理およびポリシーに敏感なクエリに関する能力の確保に集中しました。MiniMaxは全体の80%超にあたる1,300万件を生成し、エージェント型コーディング、ツール利用、オーケストレーションに重点を置き、Anthropicはこれをリアルタイムで検知してMiniMaxがモデルを公開する前に把握しました。特にAnthropicが新モデルを公開すると、MiniMaxは24時間以内にトラフィックの半分を新モデルへ切り替える機敏さを見せました。
攻撃手法
中国国内では国家安全保障上の理由からClaudeへのアクセスが遮断されているため、数万件の偽アカウントを運用するプロキシサービス(“hydra cluster”アーキテクチャ)を通じて迂回しました。単一のプロキシネットワークが20,000件を超える偽アカウントを同時運用した事例もあり、検知を困難にするため一般ユーザーのトラフィックと混在させて送信していました。
Anthropicの対応
行動ベースの検知(behavioral fingerprinting)や、チェーン・オブ・ソート抽出パターン検知などの分類器を構築し、技術指標を他のAI企業・クラウドプロバイダー・関係当局と共有しています。また、教育アカウントやスタートアップアカウントなど、偽アカウント開設に頻繁に悪用される経路の認証を強化しました。
国家安全保障の観点
Anthropicはこれを単なる規約違反ではなく、国家安全保障上の脅威と位置づけました。不正に蒸留されたモデルは、生化学兵器開発の防止やサイバー攻撃の遮断といった安全装置が取り除かれる可能性が高く、これは米国のAI輸出規制政策を無力化すると主張しました。「どの企業も単独では解決できない」として、業界、クラウドプロバイダー、政策立案者による共同対応を呼びかけています。
先立ってOpenAIもDeepSeekの類似行為を議会に通報しており、米国AI産業全体での共同対応の議論が本格化するとみられます。
8件のコメント
OpenAIとAnthropicは本当に見苦しいというか、基盤技術や研究はGoogleが作ったものを持ってきて使い、データセットは海賊版まがいにかき集めておきながら、議会ではオープンソースモデルを違法化しようとロビー活動しているのを見ると、強欲とは何かをこれ以上ないほどよく示しているように思います。
どういうわけか、既存のビッグテックであるGoogleや中国のAI企業のほうが研究公開により積極的だというのだから、これ以上ない茶番です。
いったい誰が人類の利益のために技術を開発しているというのか……偽善的で欺瞞的です
同意です。特にAnthropicは最近、本当にあらゆる動きが見苦しいですね。Google以上にひどい連中が出てきたように思えます。
自分たち同士でもこうなのだから、国家安全保障云々は結局フレーミングに過ぎないことを如実に示している…
もともと自分で積み上げたものは惜しくて、他人が作り上げたものは大したことなく見える、ということなのかもしれません。
公正に競争する時代はもう過ぎたのではないか……とも思ってしまいます。
自分が盗んだ罪は問わない人たち……
https://cnbc.com/2026/02/…
自国の国防総省には納入しておいて、今になってようやく問題視するのを見ると、軍事目的での利用に反対する規約は単なる名分にすぎず、筋が通っていないと思います。表向きと本音が違う集団です。お金に興味がないと言いながら、お金に取りつかれている人を見ているようです
考えてみれば、大半のLLMはすでに書かれた他人の文章やデータで作られているわけで……
どこまでを海賊行為だと規定できるのだろうか?
やはりイーロン・マスクも一言口を挟みましたね
https://x.com/elonmusk/status/2026052687423562228
"Anthropicは大規模に訓練データを盗んだ罪があり、その窃盗行為に対する賠償金として数十億ドルを支払うべきでした。これは紛れもない事実です。"
まず違法にモデルを育てておいて、後から少額で示談する構図なのではないかと思います..