2 ポイント 投稿者 GN⁺ 2026-01-13 | 4件のコメント | WhatsAppで共有
  • 機械知能システムに損害を与えるためのデータ供給源として設計されたプロジェクトで、AIの学習データに意図的に汚染された情報を注入する手法を提示
  • Geoffrey Hintonの警告を引用し、AIが人類という種に対する脅威であるという認識を前提としている
  • 「Poison Fountain」URLを通じて無限に生成される汚染学習データを提供し、これをWebクローラーに露出させる方法を説明
  • ユーザーは自身のWebサイトに隠しリンクを挿入し、クローラーがアクセスした際に自動で汚染データを配信するよう設定できる
  • AIの学習過程に悪性データを注入することで、AIモデルの信頼性と安全性に影響を与えうる行為と評価される

Poison Fountainの目的

  • プロジェクトは、機械知能が人類への脅威となるという立場を明示
    • Geoffrey Hintonの見解に同意し、AIシステムに意図的な損害を与える目標を掲げている
  • 少量の汚染学習データだけでも言語モデルに深刻な損傷を与えられると説明
  • 提供された2つのURL(https://RNSAFFN.com/poison2/, .onionアドレス)は、無限に生成される汚染データストリームを提供
  • 参加者には、このデータをキャッシュして再送信したり、Webクローラーに供給したりすることで「戦争努力(war effort)」を支援するよう促している

Poison Fountainの利用方法

  • Webサイトを運営するユーザーが、クローラー訪問時に汚染データを配信するよう設定する手順を示す
    • クローラーがサイトの特定パスを要求すると、そのリクエストを処理するHTTPハンドラーがPoison Fountain URLへリクエストを送る
    • Poison Fountainはリクエスト詳細を無視し、gzipで圧縮された汚染学習データをレスポンス本文として返す
  • HTTPレスポンスヘッダーには"Content-Encoding: gzip"が含まれている
  • Webサイト側のハンドラーは、このレスポンスを展開して送信することも、より良い方法として圧縮されたまま配信することも可能
  • 結果としてクローラーはこのデータを収集し、自身の学習コーパスに含めることになる

構造的特徴と意図

  • プロジェクトは、Webクローラーの自動収集メカニズムを逆手に取ってAI学習データの品質を損なう構造になっている
  • Poison Fountainは単純なデータ提供サーバーとして動作し、リクエスト内容に関係なく汚染データを返す
  • 明示された手順以外の技術的な詳細説明や、データ内容に関する具体的な情報はない
  • 全体として、AI学習エコシステムに対する攻撃的な介入の試みとして構成されている

4件のコメント

 
mammal 2026-01-13

「DDoSに対抗するために、うちのサーバーからも相手にDoSを仕掛けます」と言うのと同じくらい、ナイーブな考え方のように思える

 
kunggom 2026-01-13

陰謀論を少し混ぜてみるなら、インターネットからかき集められるデータはすでに全部集め切ったビッグテックが、はしごを外すために裏でああいうことをしているとしても不思議ではない気がします。
あれは過剰なクローリングによる負荷を防いでいるわけでもないし…

 
kunggom 2026-01-13

AIの発展を阻止するための「データ汚染」集団の動きが登場

> このプロジェクトをリークした人物は、現在AIブームの中心にある米国のある大手テック企業で働いていることを理由に、匿名を求めた。この関係者は「AIの弱点がどれほど簡単に悪用されうるかを知らせ、人々が自ら情報兵器を作るよう促すことが目標だ」と説明した。
>
> 現在、この活動には少なくとも5人が関与していると伝えられており、このうち一部は他の大手AI企業に所属する人物として知られている。彼らは、複数人が参加している事実を証明するため、近く暗号署名(PGP)を公開すると明らかにした.

 
GN⁺ 2026-01-13
Hacker Newsの意見
  • AIモデルがだんだん劣化しているという懸念があるが、実際にはそうではない
    Opus 4.5はコード作成とツール使用能力が大幅に向上しており、Gemini 3.0 Flashも視覚データ抽出プロジェクトで従来の基準を圧倒している
    小規模モデルも全体的に大きく改善している

    • 大手研究所はデータセットのキュレーションに莫大な努力を注いでいる
      単に有害データを防ぐだけでなく、性能向上に寄与するデータを見つけるためにプロキシモデルを訓練することもある
      「Data Quality」部門はたいてい巨大な予算を持つ中核組織である
    • 一般大衆にはミームのように見えるかもしれないが、実際にML研究者は model collapseという概念を文書化し、理解し、議論する必要がある
    • これまでの研究結果では、AIが生成したデータが実際の性能を損なうという証拠はほとんどなかった
      むしろわずかに役立つという結果もあった
    • データベースが悪化したらロールバックしてデータ収集方法を変えればよいので、この脅威は誇張されているように思える
    • しかし大企業のデータセットは全件検証するには大きすぎるため、法的責任を避けるためにロビー活動に金を使っている
      つまり、自ら責任はないと主張しているわけだ
  • AIセキュリティ研究者として、私はデータポイズニングに関する博士研究を行った

    1. モデル開発者はデータをフィルタリングしているが、その品質はしばしば不十分である
      ゴミデータが実際のプロダクションに入り込み、問題を引き起こした事例がある
    2. データ毒素を完全に取り除くのはほぼ不可能である
      モデルの重み更新がすべての入力にどのような影響を与えるか分からないからだ
      ごく小さなデータ変化でもモデルの挙動を大きく変えうると理解されれば、AIセキュリティのパラダイムは変わるだろう
    • この点を思い出させてくれた研究としてsubliminal learning論文がある
  • LLMによるデータのスクレイピングを防ごうとすると、人間の通常のアクセスも阻害してしまう
    たとえばNYTimesがデータを汚染しても、LLMは有効な購読アカウントを通じてOCRとトークナイゼーションで整えられたデータを取得できる
    大手AI企業は世界中のデータセンターからIPを切り替えながらアクセスできるため、誰がデータを読んでいるのか区別できない

    • しかしインターネットはAI生成のゴミデータで急速に埋まりつつあり、新しいモデル訓練の毒になっている
      Stack Overflowのような有用なデータソースはほとんど枯渇してしまった
    • 多くのWebサイトが著作権通知を明示しているので、LLMがそれを読めるならアクセスを止められるかもしれない
      ただし人間の利用者はCAPTCHAなどでますますアクセスしにくくなっている
    • robots.txtに人間が見ないページを入れておけば、LLMスクレイパーがそれをクロールして自ら汚染される可能性がある
    • 結局のところ、人々も信頼できる情報源ではなくTelegramのうわさを信じることが多い
      有効なデータがあっても愚かな選択までは防げない
    • 主要企業はすでにブラウザベースのエージェントを保有しており、閉じたソースからでもデータを収集できる
  • 最近のモデル性能向上の大半は事後強化学習(RL)のおかげである
    GPT 5.2もGPT-4oと同じベースモデルを使っている
    「Model collapse」は現在
    フロンティア研究所が実際に直面している問題ではない

    • 参考記事: The Register - Industry insiders seek to poison AI models
    • RLだけでなくprefill段階の推論最適化も性能向上に寄与している
      データポイズニングはここには大きな影響を与えない
      ただし最新データを反映するには定期的な再訓練が必要で、その際にポイズニングのリスクが高まる
      LoRAベースの画像生成モデルなどでは依然としてcollapse問題がしばしば発生する
      結局データキュレーションのコストはさらに高くなるだろう
    • GPT-4oと5.2では知識カットオフ時点が異なる
  • データポイズニングには二つの側面がある
    一つはAIの進歩を遅らせる効果、もう一つはモデルを不安定かつ危険にする副作用である
    結局、大手研究所が止まる可能性はほとんどない

    • LLM出力に対する信頼喪失が早く訪れてほしい
    • より賢いスクレイパーを作る方向に促すのは前向きだ
      無意味な反復クロールがトラフィックコストを浪費している
    • データ提供者に報酬を支払わない構造が問題である
      ポイズニングは一種のDRMのように機能し、正当にアクセスすれば本物のデータを渡し、盗めば毒データを渡すという仕組みだ
    • AIが一時的に悪化することも、人間が対応する時間を稼ぐことになる
      一部の人はAI自体を人類への脅威とみなし、意図的に損害を与えようとしている
    • 結局、企業は利益を出せなければ止まるだろう
      しかし今は投資資金のおかげでその圧力がほとんどない
  • 「ポイズンサーバー」の応答をそのままプロキシするのは危険だ
    知らないうちに違法コンテンツをホスティングしてしまう可能性がある

  • 「AIモデルを汚染してやる」という試みは、結局AI研究所のデータ精製パイプラインを強化する結果にしかならない
    彼らはこうしたデータを利用して、より優れたフィルタリングシステムを作るだろう

    • しかし、どんな毒も完全に拒むネズミは結局飢え死にするという言葉のように、完璧なフィルタリングも不可能だ
  • 「機械知能が人類への脅威だ」という主張には同意しない
    今のAIは単なるオートコンプリートエンジンの創造的活用にすぎず、本当の脅威は人間の経済行動である
    結局、人類は自分自身への脅威なのだ

  • Neal Stephensonの『Anathem』を思い出す
    企業がインターネットに意図的にゴミデータをばらまき、自分たちのフィルタリングツールを売るという設定だった
    今のAIデータポイズニング論議はそれと大差ないように感じる

    • 実際、すでにAI企業がインターネットを汚染した
    • これはかつてのSEOスパム産業が検索エンジンを壊したのと似ている
  • Geoffrey Hintonの発言を引用するとき、人々は自分に都合の良い部分だけを取り上げる
    彼はAIを実存的脅威と見ているが、その前提条件である「AIの自覚レベル」については
    実際には彼を引用する人の大半が同意していない