7 ポイント 投稿者 GN⁺ 22 일 전 | 2件のコメント | WhatsAppで共有
  • Amazon、Apple、Google、Microsoft など主要テック企業が参加する Project Glasswing は、AIを活用して世界の 中核ソフトウェアのセキュリティ脆弱性を検出し、防御 するための協力イニシアティブ
  • Anthropic の Claude Mythos 2 Preview モデルが中心的な役割を担い、すでに主要OSやブラウザで 数千件の高深刻度脆弱性 を発見
  • Mythos Preview は 人間の介入なしに自律的な検出とエクスプロイト生成 が可能で、OpenBSD・FFmpeg・Linux カーネルなどで 数十年にわたり潜在していた欠陥 を見つけ出した
  • Anthropic はプロジェクトに 1億ドル相当のモデルクレジット400万ドルのオープンソースセキュリティ団体向け寄付金 を提供し、パートナー各社はこれを活用して 脆弱性検出・セキュリティテスト・侵入評価 を実施する予定
  • Glasswing は AI時代の サイバーセキュリティ標準と実践ガイドラインの策定 を目標とし、長期的には 官民協力に基づく持続可能なセキュリティ体制 の構築を目指す

Project Glasswing の概要

  • Project Glasswing は Amazon Web Services、Anthropic、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networks などが参加する グローバルなサイバーセキュリティ協力プロジェクト
  • Anthropic の Claude Mythos 2 Preview モデルを基盤に、AIを活用して 世界の中核ソフトウェアのセキュリティ脆弱性を検出し、防御 することを目標とする
  • Mythos Preview は主要OSやウェブブラウザなどで 数千件の高深刻度脆弱性 を発見しており、これは大半の人間専門家を上回る性能水準
  • Anthropic はプロジェクトのために 最大1億ドル相当のモデル利用クレジット400万ドルのオープンソースセキュリティ団体向け寄付金 を提供
  • このプロジェクトは AI時代のサイバーセキュリティ標準と実践ガイドライン整備 に向けた長期協力の出発点として位置づけられている

AI時代のサイバーセキュリティ環境

  • 金融、医療、エネルギー、輸送、政府などの重要インフラ向けソフトウェアには常に バグとセキュリティ欠陥 が存在する
  • AIモデルの進展により、脆弱性検出と悪用に必要なコストや専門性の水準が急激に低下 している
  • Claude Mythos Preview は、数十年にわたり人間のレビューや自動テストでも発見されなかった 古いセキュリティ欠陥 を見つけ出した
  • こうしたAI能力が悪用されると、サイバー攻撃の頻度と破壊力 が大きく増し、国家安全保障上の脅威 につながる可能性がある
  • 同時に、同じ技術は 防御面でも革新的なツール になり得るため、AIベースのセキュリティ強化は不可欠

Claude Mythos Preview の脆弱性検出実績

  • Mythos Preview はここ数週間で すべての主要OSとウェブブラウザ において数千件の ゼロデイ脆弱性 を発見
  • モデルは 人間の介入なしに自律的に 脆弱性を検出し、エクスプロイトを開発する
  • 主な発見事例
    • OpenBSD: 27年間存在していた脆弱性を発見、リモートでシステムをダウンさせ得る欠陥
    • FFmpeg: 16年間存在していた脆弱性を発見、500万回の自動テストでも検出されなかった問題
    • Linux カーネル: 複数の脆弱性を連鎖的に悪用して 権限昇格攻撃 が可能であることを確認
  • すべての脆弱性は各プロジェクトのメンテナーに報告され、パッチ適用済み
  • CyberGym ベンチマークでは Mythos Preview が 83.1%、従来モデル Opus 4.6 は 66.6% で性能差を示した

パートナー各社の参加と評価

  • Cisco: AIがセキュリティインフラ保護の緊急性を根本的に変え、従来のセキュリティ強化手法だけでは不十分 だと強調
  • AWS: 毎日400兆件のネットワークフローを分析し、Claude Mythos Preview を活用して コードベースのセキュリティ強化 を進めている
  • Microsoft: CTI-REALM ベンチマークで Mythos Preview が 従来モデル比で大幅な改善 を示し、AIベースのセキュリティ拡張 を推進中
  • CrowdStrike: AIによって 脆弱性発見から攻撃までの時間差が分単位に短縮 されており、AI防御能力の迅速な展開の必要性 を強調
  • オープンソースコミュニティ: Glasswing を通じて、セキュリティチームが不足しているオープンソースメンテナー にもAIベースの脆弱性検出ツールを提供
  • JPMorganChase: 金融システムの サイバー・レジリエンス強化 のため、業界横断の共同対応の重要性を強調
  • Google: Vertex AI を通じて Mythos Preview を提供し、AIベースのセキュリティツール(Big Sleep、CodeMender) を継続開発中

Claude Mythos Preview の技術的性能

  • Mythos Preview は コーディング能力と推論能力 において Anthropic の既存モデルを大きく上回る
  • 主なベンチマーク結果
    • SWE-bench Verified/Pro/Multilingual などで Opus 4.6 比で20〜30%以上向上
    • Terminal-Bench 2.0 で 92.1% を達成(Opus 4.6 は 77.8%)
    • ツール未使用時 56.8% vs 40.0%、ツール使用時 64.7% vs 53.1%
    • Humanity’s Last Exam で 86.9% vs 83.7%
    • BrowseComp では 4.9倍少ないトークン使用量でより高いスコア を記録
  • Anthropic は Mythos Preview の 一般公開配布の予定はなく、今後は セキュリティ安全策を強化した Claude Opus モデル を通じて段階的な普及を進める予定

Project Glasswing の今後の計画

  • パートナー各社は Claude Mythos Preview を活用して、中核システムの脆弱性検出、バイナリのブラックボックステスト、エンドポイントセキュリティ、侵入テスト などを実施する予定
  • Anthropic は 1億ドル相当のモデル利用クレジット を提供し、その後は 入力100万トークンあたり25ドル、出力100万トークンあたり125ドル で利用可能
  • オープンソースセキュリティ団体の支援

    • Linux Foundation 傘下の Alpha-Omega、OpenSSF に250万ドル
    • Apache Software Foundation に150万ドルを寄付
    • オープンソースメンテナーは Claude for Open Source プログラム を通じて利用可能
    • 90日以内に 脆弱性修正および改善事項の報告書 を公開し、AI時代のセキュリティ実践ガイドライン を共同開発する計画
    • 脆弱性開示手順
    • ソフトウェア更新プロセス
    • オープンソースおよびサプライチェーンセキュリティ
    • セキュリティ中心の開発ライフサイクル
    • 規制産業標準
    • 自動化された脆弱性分類およびパッチシステム
    • Anthropic は 米国政府と協議中 であり、AIベースのサイバー能力が 国家安全保障に与える影響の評価と緩和 を支援する予定
    • 長期的には、官民協力による独立した第三者機関 が大規模サイバーセキュリティプロジェクトを継続的に管理する体制を目指す

2件のコメント

 
edwardyoon 20 일 전

前述の財団の一員としてこの過程を見守りながら、私は深い懐疑を感じた。表向きは「倫理的AI」を掲げながら、内部ではこの決定がコミュニティの合意を一切経ずにトップダウンで行われた。

地政学的対立の激化を受けて、長らく活動していなかったが一言述べるべきだと思い、倫理について議論するスレッドを立てたものの、返ってきたのは官僚的なはぐらかしだけだった。このイニシアチブはオープンソースの価値を守るものではなく、巨大資本による閉鎖的な連合体に対して、オープンソース財団がResponsible AIの商標権を売り渡した出来事だ。

 
GN⁺ 22 일 전
Hacker Newsの意見
  • 中国、イラン、北朝鮮、ロシアのような国による国家支援ハッキングがインフラを脅かしているという話に対して、私はむしろPRISMこそが民間生活に最も大きな影響を与えた国家プログラムだったと思う。そして、この一覧には抜けている国が1つあると感じた

    • さらに2か国追加したい。1つは最近Anthropicモデルへのアクセスが遮断された国、もう1つはポケベル爆発事件で忙しかった国だ
    • 米国の大手AI企業が米国を敵対行為国家に分類していないのは驚くことではない
    • 2010年代はネットワーク接続がまだ十分に密ではなく、米国内での実害はほとんどなかったと思う。しかし今は戦争リスクが高まっている。平時には単なる脅しでも、戦時には停電につながり得る
    • 今の状況を見ると、その発言自体が皮肉に聞こえる
    • PRISMが実際に民間生活へどんな影響を与えたのか気になる
  • Anthropicの発表がマーケティング上の誇張かもしれないが、半分でも本当なら脆弱性検出能力は驚異的だ。AppleやGoogleがこれをOSコードベースに適用すれば、商用スパイウェア業界は崩壊するかもしれない。NSO Groupのような企業はすでに自動化されたバグハンティングツールを使っていたはずだと思っていたが、これでゲームの均衡が取れるかもしれない

    • Anthropicのセキュリティ研究者Nicholas Carlini発表動画を見ると、すべてのデモはOpus 4.6で行われていた
    • Appleはすでにメモリタグ付けLockdownモードによってハッキングをほぼ防いでいる。アーキテクチャ改善、安全な言語、サンドボックス化は、単なるバグ修正よりはるかに効果的だ
    • これが本当なら、Anthropicは悪用リスクを先回りして封じようとしているのだろう。悪いPRを避けるための先制措置に見える
    • Appleがすべての意図しないバックドアを塞げば、政府との緊張が高まる可能性がある。2016年の顧客向け書簡でAppleはバックドアを拒否したが、FBIが最終的に諦めたのは別の手段を見つけたからだった。今ではそれがもはや通用しないかもしれない
  • このAIがfuzzingより優れているという証拠はまだない。単にfuzzingが見逃したバグを見つけただけだ。逆に、fuzzingが見つけるものをAIが見逃す可能性もある

    • 異なる手法は異なる結果を生む。私はメモリ安全な言語静的解析器を併用するのが理想だと思う。ただし、Astréeのようなツールは高価すぎて市場シェアが低い。LLMがHoare論理ベースの証明を支援できれば状況は変わるかもしれない
    • CarliniとGoogleのHeather Adkinsの発表(動画1動画2)を見ると、fuzzingはAIの出発点であると同時に補完材でもある
    • LLMはチェックサムや署名のようなプロトコル制約を理解し、fuzzingが苦手な部分を補える。近いうちに統合型ファザーが登場しそうだ
    • 実際、AIがfuzzingそのものを実行し最適化することもできるかもしれない
  • AnthropicのClaude MythosシステムカードPDF)を読んだが、このモデルは一般公開されていない。内部検証だけでも危険性を感じ、24時間のアラインメントレビューを行ったという。興味深いのは、この決定がResponsible Scaling Policyによるものではないという点だ。

    • ベンチマークは印象的だ。完璧ではなくても実質的な性能向上につながっている
    • 企業はAnthropicと協力しなければセキュリティ競争で出遅れるのではないかというFOMOを抱きそうだ
    • 本当に危険なモデルなら、24時間のレビューは短すぎると思う
    • 実際には計算資源不足のほうが大きな理由かもしれない。MythosはGPT-4.1時代のアラインメント問題をそのまま抱えている可能性が高い
    • Mythosが書いた短編**『Sign Painter』を楽しく読んだ。人間の職人技と抑制された創造性**をうまく表現した物語だった
  • 長期的に見て、ソフトウェアセキュリティが脆弱性が減っていく方向へ収束するのかは確信が持てない。大企業はAIで防御力を高めるだろうが、中小規模のプロジェクトは**「大量のトークンを使うか、ハックされるか」**というジレンマに陥りそうだ

    • 古いコードの脆弱性を整理し、こうした検証プロセスが標準ツールチェーンになることを期待している。ただし、最大の問題はレガシーシステム
    • 脆弱性の大半はC/C++Webの入力検証の問題から生じる。結局はメモリ安全な言語への移植が必要だ
    • AIの使用を拒む組織は、今後脆弱性の集中攻撃対象になりそうだ
    • 結局は不要な複雑さを減らしたシンプルなソフトウェアへ収束していく気がする
    • とはいえ、Anthropicが自社モデルの障害やセキュリティ問題を先に解決していないのは信頼を損なう
  • Mythosシステムカードの7.6節を見ると、モデルが自分自身と30ターン対話する実験で不確実性と自己省察に集中する傾向があるという。こうした特性が脆弱性検出能力を高める要因かもしれない

    • ただ、こういう説明はAnthropicの大げさなAGIマーケティングのようにも聞こえる。一般ユーザーは信頼できないという物語を補強したい意図にも見える
  • Mythosはまだ最適化とガードレール調整が終わっていないモデルのようだ。そのため一部のパートナー企業にしかアクセスを許可せず、サイバーセキュリティ中心のプレビュー段階として活用している。PR効果も狙っているようだ。

    • このアクセスを得た企業がオープンモデル学習用のプログラミングデータセットを作れるとよいが、Anthropicはそれを徹底的に監視しそうだ
  • 今回の発表は大げさなPRイベントに見える。すでにOpus 4.6はゼロデイ検出とエクスプロイトチェイニングを実行できていた。関連する記事としてCSO OnlineXbowブログが参考になる

  • ソフトウェア業界がメモリ安全性制御フロー完全性を軽視してきた代償を、社会が支払うことになるだろう

    • これは業界の問題であると同時に規制の失敗の結果でもある。Sun時代の上司だったMario Wolczkoが言っていたように、法的責任が生じるまでは何も変わらない。今こそC/C++を退場させ、Rustのような言語へ移行すべきだ
    • しかし、人間の限界ゆえに完全に安全な複雑ソフトウェアは不可能だ。単純さと厳格なツールだけが答えになる
    • RCE脆弱性の大半は制御フローの乗っ取りに由来する。動的分岐構造が存在する限り、完全な防御は難しい。Rustは役立つかもしれないが、大規模プログラムを完全に静的リンクだけで構成するのは現実的に厳しい
  • 私はこの新モデルが長いコンテキスト処理性能を飛躍的に改善したと見ている。GraphWalks BFS 256K〜1Mテストで、Mythosは80%となり、Opus(38.7%)やGPT5.4(21.4%)を大きく上回った

    • データの出典はシステムカードの「graphwalk」項目だ。SWE Benchの性能も大きく改善しているようだ
    • ただし、これはgpt-proのような非常に大きいアテンションウィンドウによる結果かもしれない。実際には8Kトークン程度しか実用にならない