NISTによるDeepSeek評価は、科学を装った政治的攻撃だ
(erichartford.com)- NISTが2025年9月に発表したDeepSeek AIモデル評価レポートは、中立的な技術評価ではなく政治的目的の文書であり、実際のセキュリティ脅威に関する証拠もないまま、中国発のオープンソースAIを抑え込もうとする意図を含んでいる
- レポートはDeepSeekモデルのバックドア、スパイウェア、データ流出の証拠をまったく示せておらず、単に安全チューニングが不十分で脱獄しやすいこと、中国政府の視点を反映していることだけを指摘している
- DeepSeekはApache 2.0ライセンスでモデル重み、アーキテクチャ、学習方法論を完全公開し、オープンAI研究に大きく貢献したが、米国政府はこれを「敵対的AI」と位置づけている
- NISTはローカル実行とAPI利用を意図的に混同し、他のオープンソースモデルとの比較や米国製モデルのバイアステストを省略するなど、偏った方法論を用いている
- このレポートは、オープンソースAIの競争力を示したDeepSeekを抑制し、米国AI企業の独占的地位を守るための産業政策の一環であり、科学的中立性より商業的・戦略的利益を優先している
NISTによるDeepSeek評価レポートの本質
- NISTの2025年9月30日付DeepSeekレポートは、中立的な技術評価ではなく政治的攻撃文書
- バックドア、スパイウェア、データ流出に関する証拠はまったくない
- 米国政府が恐怖と誤情報を利用して、オープンサイエンス、オープンリサーチ、オープンソースを妨げようとする試み
- 企業権力の保護と支配の維持のために、人類への貢献を政治と虚偽で攻撃している
- レポート公表後、オンラインでパニックが発生
- DeepSeekの重みが汚染されているという主張
- 中国がモデルを通じてスパイ活動をしているという主張
- ダウンロード自体がセキュリティリスクだという主張
- これらはすべて虚偽
DeepSeekの実際の成果
- 競争力のあるAIモデルの開発
- OpenAIやAnthropicよりはるかに少ない予算で最先端級の性能を達成
- 完璧ではないが、予算に対して印象的な成果
- Apache 2.0ライセンスで完全公開
- モデル重み
- アーキテクチャ
- 学習方法論
- 研究論文
- 誰でもその成果を再現し、最先端規模のモデルをローカルで実行できるようにした
- すべてをゼロから再構築できるよう支援
- 近年のオープンAI研究への最大級の貢献の一つ
- 米国政府の反応: 「敵対的AI」という烙印を押し、スパイ活動を示唆
NISTの中核的なごまかし戦略
- 3つのシナリオを意図的に混同
- シナリオA: DeepSeekアプリ/APIを使うと、プロンプトが中国のサーバーへ送信される(実際のデータ主権の問題)
- シナリオB: オープン重みをダウンロードしてローカル実行する場合、データは端末外へ送信されない
- シナリオC: OpenRouter、Fireworks、Chutesのような信頼できる第三者サービスでホスティングされる場合、インフラとプライバシー管理はホスティング事業者次第
- NISTはこのまったく異なる状況を意図的に一括りにしている
- ローカルダウンロードまで集計したうえで「国家安全保障上のリスク」と警告
- 基本的な技術知識があれば、誰でもこれがミスリーディングだと分かる
- この混同が、レポート全体にわたるミスリーディングなフレーミングの土台になっている
NISTが実際に見つけたもの
- 扇情的な表現を取り除けば残るもの
- DeepSeekモデルは米国の安全チューニング済みモデルより脱獄させやすい
- ときどき中国政府の視点を反映する
- 特定のベンチマークでわずかに性能が低い
- トークン当たりコストが高いと主張している(方法論は未提示)
- それだけである
- 悪意ある挙動の証拠はない
- データ流出の証拠もない
- 「自分たちが気に入らない形でプロンプトに応答する」以外に、モデルが悪意ある行為をする証拠はない
- 脱獄の発見に関する分析
- DeepSeekが安全学習への投資を抑えていたため(リソースの問題)
- NISTは比較のために過去の米国モデルをテストしていない
- 一方でOpenAIのgpt-oss-120bは非常に脱獄しやすい
- 「中国共産党の物語」の発見に関する分析
- 中国のデータで学習したモデルが中国の視点を反映するのは不思議ではない
- 中国の検閲法の適用を受ける
- これはセキュリティ脆弱性ではない
NISTが行わなかった比較
- 他のオープンモデルと比較していない
- Llama、Mistral、Falconはどこにいるのか?
- 比較していれば、これはDeepSeek固有の問題ではなく、オープンモデル全般がクローズドモデルより安全レイヤーが少ないことを示していただろう
- 初期の米国モデルとも比較していない
- 2020年のGPT-3の脱獄脆弱性はどうだったのか?
- この比較はストーリーを弱めるため、行われていない
- 米国モデルの米国バイアスをテストしていない
- 中国バイアスだけがセキュリティリスクと見なされているようだ
- 非公開ベンチマークを使用
- 「CAISIが構築した非公開ベンチマーク」により、再現も検証もできない
- これは科学ではなく、アドボカシー研究である
このレポートが実際に語っていること
- 行間を読めば
- DeepSeekモデルは洗練度が低い - 開発投資が少ないのだから、粗さがあるのは当然
- 中国モデルは十分に競争力があり、それが懸念されている - 市場シェアを脅かさなければ、このレポートは存在しなかっただろう
- 米国はAI支配力の喪失を恐れている - トランプの「AI行動計画」のもとで明示的に依頼された。商務長官の声明も、これが中立的評価ではなく産業政策であることを明確に示している
本当の脅威(ヒント: あなた自身に対するものではない)
- DeepSeekが実際に脅かしたもの: 独占
- DeepSeekの本当の罪は、オープンソースが機能することを示したこと
- 何十億ドルものベンチャーキャピタルや非公開APIがなくても強力なモデルを構築できると証明したこと
- これが、プレミアム価格でAIアクセスを売る企業を震え上がらせた
- DeepSeekが「ここに重みがあります。自分で実行してください」と言った瞬間、彼らはそれらの企業が依存する経済的な堀を攻撃した
- これこそがNISTレポートが存在する理由
- DeepSeekが、オープン性がクローズドシステムと競争できることを証明したから
- 既得権益層はこれを封じなければならない
偽善
- NISTの警告 vs 現実
- NIST: DeepSeekモデルはシミュレーション環境で悪意あるプロンプトに応答しうると警告
- 現実: 米国モデルは実際に外部サーバーへ実データを送信している
- OpenAIの事例
- ChatGPTの会話を学習に使っていたことを覚えているだろうか?
- 反発を受けて初めてオプトアウトを追加した
- 比較
- DeepSeek重みのローカル実行 = データ送信ゼロ
- OpenAI APIの利用 = サーバーへの継続的なデータ送信
- どちらがプライバシーリスクなのか?
- レポートは「外国AIの採用」に警告を発しながら、米国製であれそうでなかれ、すべてのクラウドAPIが他者のインフラへの信頼を必要とすることは無視している
- ローカルのオープン重みは、どんなクラウドサービスよりも監査可能で安全である
- だがそれはメッセージではない。なぜなら、これは決してセキュリティの話ではなかったからだ。ナラティブの統制の話である
オープンソースとオープンサイエンスへの裏切り
- オープンソースコミュニティは現代AIの土台を築いた
- Linux、Python、PyTorch、Transformers
- 数十年にわたる協調的な開発が自由に共有されてきた
- DeepSeekはその伝統に参加した
- オープンな知識を受け取り、印象的なものを築き、再びコミュニティへ返した
- 米国機関の反応: 脅威だと呼ぶ
- MetaがLlamaを公開したとき、中国が同じことをしたと想像してみてほしい
- Llamaの重みが「脱獄に脆弱」だから監視ツールだと主張する政府報告書を出したとしたら
- 私たちはそれを保護主義、技術的パラノイア、オープン研究への攻撃と呼んだはずだ
- しかし、私たちがやると? 「国家安全保障」
- オープン研究は普遍的であるべきだ
- 都合の良いときだけオープンサイエンスを擁護することはできない
自分で試せるテスト
- 私もNISTも信じず、自分で確かめてほしい
- DeepSeekの重みをダウンロードする
- huggingface transformers、vLLM、LM Studio、llama.cppを使ってローカルで実行
- ネットワーク監視ツールを開く
- 観察する
- どこへも送信されるパケットは正確にゼロ
- プロンプトは完全に端末上で処理される
- 恐ろしい「セキュリティ脅威」は何にも接続せず、行列積をしているだけ
- 自問してほしい: なぜ米国政府はこれについて嘘をつくのか?
- 「セキュリティ脅威」はモデルにあるのではない。政治にある
実際に心配すべきこと
- 正当な懸念は存在する
- DeepSeek APIの利用: 機密データをDeepSeekのホスティングサービスに送れば、中国のインフラを通過する。これは外国のクラウド事業者を利用する場合と同じ、現実的なデータ主権の問題
- 脱獄脆弱性: 本番アプリケーションを構築するなら、どのモデルでも脆弱性をテストし、アプリケーション層の安全策を実装すべき。モデルのガードレールだけに依存してはならない。また、推論時にはガードモデル(LlamaGuardやQwen3Guardなど)を使って、プロンプトと応答の両方を分類・フィルタリングせよ
- バイアスと検閲: すべてのモデルは学習データを反映する。どのモデルを使うにせよ、その点を認識しておくべき
- これらはエンジニアリング上の課題
- オープンソース(あるいは中国製)モデルを完全に避ける理由にはならない
AIの未来にとっての意味
- これは単にDeepSeekの話ではない
- AIがオープンで監査可能なままでいるのか、それとも政府や企業によって囲い込まれるのかという問題だ
- 問い
- 「オープンソース」を「米国製である場合にのみオープン」と再定義することを許すのか?
- セキュリティ主張に対して実際の証拠を求めるのか、それとも曖昧な示唆を受け入れるのか?
- AIは共有された人類のプロジェクトであり続けるのか、それとも地政学的な兵器になるのか?
- DeepSeekは別の道があることを証明した。だからこそ信用を失わせる必要があった
筆者の見解
- 筆者の背景
- オープンソースモデルをローカルで実行
- 自前のモデルを学習
- 組み合わせ可能なアライメントとユーザーの自由を信じている
- AIは企業や政府のためではなく、ユーザーのための道具であるべきだと考えている
- NISTレポートに対する評価
- 中立的な技術評価ではない
- 米国の商業的・戦略的利益を守るために、中国AIモデルの採用を阻むよう設計された政策文書
- 米国政府による産業振興に対する立場
- 米国政府が米国産業を後押しすること自体が本質的に間違っているわけではない
- だが、それをそのままの名前で呼ぶべきだ
- 保護主義をセキュリティ研究に見せかけるべきではない
- 脅威を捏造すべきではない
- 証拠が示していることについて大衆に嘘をつくべきではない
- DeepSeekの貢献
- 私たちに価値ある貴重な贈り物を与えた
- 重みは単なる
safetensorデータにすぎない - ドライブ上に置かれ、命令どおりに動作する
- 外部へ連絡しない。スパイしない。データを流出させない
- 結論
- 心配しているなら、それはローカル推論の仕組みを理解していないということ
- 恐怖を煽る言説を信じるなら、うまく操作されたということ
- これはすべて安全の話ではない。権力の話だ - 未来を形作る道具を誰が構築し、共有し、理解するのかという話である
結論
- コードと研究はオープンソースであり、監査可能だ。残りはすべて政治である
- 読者への勧め
- NISTレポートとコードを自分で読んでみてほしい
- 悪意あるコードや監視機能の実際の証拠を探してみてほしい
- 見つからないはずだ。存在しないからだ
- そして次の問いを始めてほしい
- なぜオープンソースがあまりにうまく機能すると、それを恐れろと言われるのか?
1件のコメント
Hacker Newsのコメント
vLLMのようなオープンソースプロジェクトがより効率的にモデルをホスティングできるよう助けてくれた