7 ポイント 投稿者 GN⁺ 2026-01-22 | 2件のコメント | WhatsAppで共有
  • オープンソースライブラリ cURL は、AIが生成した無意味なバグレポートの急増を抑えるため、バグバウンティ制度を終了した
  • メンテナーの Daniel Stenberg は、AIが作成した報告の大半が 「完全な虚偽」 であり、検証に多くの時間を要すると説明した
  • cURLは1月末から 報奨金の支払いを停止 し、これまでに合計87件のレポートに 101,020ドル を支払った実績がある
  • セキュリティ研究者 Joshua Rogers はAIツールを活用して実際に有効なレポートを提出してきたが、今回の決定を 「非常に賢明な措置」 と評価した
  • 彼は本当の動機は金銭ではなく 名声と技術的達成 にあるとし、他のプロジェクトでも同様の措置を検討する必要があると述べた

cURLのバグバウンティ終了決定

  • オープンソースのコードライブラリ cURL が、バグレポートに対する金銭的報奨を停止した
    • 目的は AI生成の虚偽レポート(AI slop) の急増を抑制するため
    • メンテナーの Daniel Stenberg は、「AI slopと不正確なレポートが増え続けており、この洪水を止めなければ沈んでしまうしかない」と述べた
  • cURLは 1月末をもってバウンティ支払いを終了 した
    • 彼は「実際には存在しない、誇張されている、あるいは誤解に基づく発見のために、あまりにも多くの時間を浪費している」と説明した

AI生成レポートの問題と影響

  • cURLは最近、AIが自動生成したバグレポート によって業務負担が大きく増加している
    • 大半のAI生成レポートは 無意味または誤った内容 と判明
    • こうしたレポートを見分ける過程が 時間を要し、メンテナーにとって大きな負担となっている
  • Stenbergは2025年に 「Death by a thousand slops」 という文章で、この問題を公に取り上げたことがある

AI支援レポートの前向きな事例

  • すべてのAI生成レポートが無価値というわけではない
    • Stenbergは、100件以上 のAI支援レポートが実際のコード修正につながったと述べた
  • これまでcURLは合計 87件のバグレポート に対して 101,020ドル のバウンティを支払ってきた
    • バウンティがなければ、一部のレポートは発見されなかった可能性もある(追加分析なし)

セキュリティ研究者 Joshua Rogersの見解

  • Joshua Rogers は、AIツールを活用してオープンソースプロジェクトに多数の 有効なバグレポート を提出してきた人物
    • 彼はAIの分析結果を確認し、自ら補完したうえで提出している
  • Rogersは今回のcURLの決定について、「ずっと以前に実施されるべきだった素晴らしい措置」 と評価した
    • 「この制度がこれほど長く続いていたことのほうがむしろ不思議だ」と述べた
  • 彼は「バグバウンティがなくなれば一部の動機は減るが、重要なレポートは依然として提出される」と話した

報酬と動機の不均衡

  • Rogersは、「名声(fame)」こそが真の動機であり、金銭的報酬は二次的なもの だと強調した
    • cURLの最大バウンティは 1万ドル であり、深刻な脆弱性を見つけられるレベルの専門家にとっては大きな金額ではない
  • 一方で彼は 経済的な不均衡 も指摘した
    • 同じ報酬でも、低所得地域の研究者 にとっては大きな意味を持ちうると述べた
    • 「スウェーデンでは昼食代程度の報酬でも、一部の地域では莫大な金額になりうる」と説明した

オープンソース生態系の共通課題

  • 記事によれば、他のオープンソースプロジェクト もAI生成レポートの洪水に苦しめられている
  • 今回のcURLの決定は、AI時代の品質管理とコミュニティ運営のあり方 をめぐる新たな議論を引き起こす可能性がある(追加説明なし)

2件のコメント

 
xguru 2026-01-22

LLMベースのハッキング用エクスプロイト生成の産業化が近づいている

これと相まって、さまざまな部分にLLMを適用せざるを得ない時点が近づいている気がしますね。
LLMを使うハッカーたちを防ぐためにも、LLMにセキュリティに対する検証を任せるべきなのでは

 
GN⁺ 2026-01-22
Hacker Newsのコメント
  • バグが本当に重要な問題だと判明した場合に返金される参加費を導入すれば、こうした問題を素早く防げそう
    以前、銀行のログイン方式でパスワード+PINではなくPINだけで切り替えられてしまう脆弱性を報告したが、「意図された動作」として閉じられたことがある
    病院や銀行のような規制の多い組織は、実際のセキュリティよりも「コンプライアンスを満たすこと」に焦点を当てるのだと学んだ
    バグバウンティ主催側が善意で運営しているなら、こうした参加障壁やペナルティは悪意ある投稿者をふるい落とすのに役立つかもしれない

    • ただ、バグバウンティは投稿者の立場から見るとリスクの大きい仕組みでもある
      レビュアーが内容を誤解したり、ルールが曖昧だったりすることが多い
      参加費を取るならそのリスクはさらに大きくなる
      昔、自分が運営側だったときもひどいレポートが多すぎたし、今はAIまで加わってさらに深刻そう
      投稿者の側でも公正な評価を保証されにくく、重複レポートである可能性も高い
    • 規制の厳しい組織がセキュリティより見つかって処罰されない最低限の水準だけを維持しようとするのは悲しい現実
      以前、EUの銀行がSHA-1しか使えない電子署名ログインしか許していなかったが、それはすでに10年前から廃止されたアルゴリズムだった
      政府認証のIDプロバイダー用ソフトウェアは、YubiKeyが挿さっているだけでクラッシュした
      標準に従うデバイスなのに、開発者が標準外の前提を置いていたせいだった
      バグを報告したが、「うちの問題ではない」という返答しか来なかった
    • バグバウンティの核心は、脆弱性を開発者に報告するよう促すことにある
      なのに報告するには金を払い、返金や報酬も確実でないなら、むしろ他に売ったほうが魅力的に感じられるかもしれない
    • 参加費制度は運営の複雑さを大きく増す
      cURLのDanielはこうしたアイデアをすでに何度も検討したが、最終的に実現不可能だと判断した
    • 自分もGrapheneOSの事例を見て同じ結論に至った
      認証された安全でない端末はアプリの全機能を使えるのに、最も安全なOSであるGrapheneOSは「認証がない」という理由で機能が制限される
      結局、問題はセキュリティではなく認証制度のほうにある
  • オープンソースはAIから最も大きな被害を受けているように見える
    オープンソースコードがモデル学習に使われ、今やそのモデルがオープンソースプロジェクトをスパムで埋め尽くしている
    さらにAIが有料機能を実装してオープンソースのビジネスモデルを侵食し、最終的にはオープンソースコード自体を置き換える可能性すらある

    • AIはオープンソースのあらゆる原動力を殺す存在
      貢献、保守、学習、協業、ビジネスを築く意欲をすべて奪う
      さらには非公開コードで働く従来型の雇用形態さえ崩してしまう
      結局、3つの米国企業が私たちの過去の仕事をサブスクとして再販売するために競争しているようなものだ
    • AI以後、コードをきちんと理解していない人たちが大規模リポジトリでコントリビューターバッジを得ようとする試みが激増した
      以前にもこうした見栄えだけの貢献はあったが、今は規模がまったく違う
    • この流れが続くなら、Google Summer of Codeのようなプログラムも大規模な見直しが必要になりそう
      以前は学生が自分でプロジェクトを探して貢献することで自然に選別されていたが、AIが代行するとそのフィルターが消えてしまう
    • AIがオープンソースのビジネスモデルを揺るがすのは悲しいが、誰もビジネスモデルに対する権利を持っているわけではない
      世界が競争する以上、オープンコア型のモデルが崩れるのは自然なことでもある
    • モデルが学習したのはオープンソースコードだけではない
      教材、講義、公式ドキュメントなども含まれる
      以前、古いAndroid端末からデータを復旧するためにClaudeにGUI機能を追加させたが、かなりうまく動いた
      コードが元のプロジェクトの方向性と異なっていたので、GitHubには戻さなかった
  • ホワイトハットハッカーの立場では、バグバウンティの報酬は大きくなくても、道義的な選択として参加する意味がある
    一方で悪用可能な脆弱性なら、もっと高い金を払うマルウェア作者に売ることもできる

    • ただ現実には、マルウェア作者との取引はほとんど不可能だ
      互いに信用がないので、暗号資産エスクローや資金洗浄など複雑な手続きが必要になる
      政府の承認なしにこうした取引をすれば法的リスクも大きい
      結局、その市場が実質的に機能するのは難しいと思う
    • ひょっとするとマルウェア作者たちも、AIが作ったゴミ報告をふるい分けるのに苦労しているのかもしれない
  • HackerOneにはハッカーの評判システムがある
    検証済みのハッカーだけを招待する非公開プログラムとして運営すればよさそうなのに、なぜそうしないのかわからない

    • ただ、すべてのプロジェクトがそうすると新規ハッカーが実績を証明する機会がなくなる
      結局、エコシステムへの参入障壁が高くなりすぎるかもしれない
  • 金銭的報酬以外にも、名声やCVEの獲得といった動機がある
    Stenbergはブログで過大評価された脆弱性の事例を何度も扱っており、その一部は名声目的の意図的な誇張に見えた
    こうした動機はインセンティブ設計だけでは扱いにくい

  • この問題の背景を示す動画がある → YouTubeリンク

    • 動画を見ようとしたが、最近のYouTube的な大げさな話し方や身振りがあまりにも疲れるので、すぐ閉じてしまった
      大きなマイク、過剰なジェスチャー、"awesome" や "insane" のような誇張表現が会話全体を支配していて、ひどく疲れる
  • 「スウェーデンのランチ代程度の報酬でも低所得国の人には大きい」という話は、誇張しすぎた主張に聞こえる
    ストックホルム中心部のランチは200クローナ程度だが、そんな技術を持つ人がそれを「大金」だと感じるとは思えない

    • ただ、発展途上国の視点で見れば1万ドルの上限は数年分の最低賃金に相当することもある
      誇張はあっても無視できない差ではある
  • うちの会社のバグバウンティは実質的にセキュリティ用メールアドレスが1つあるだけだが、1日に100通以上のスパムが届く
    その大半はAI生成の偽ペンテスト報告書で、虚偽の脆弱性や間違った情報だらけだ
    しかも営業担当が3時間のミーティングを設定しようとしてきたこともあり、報告書には存在しないIISのバグやあり得ないIPアドレスが書かれていた
    あのときは本当に言葉を失った

  • 以前はバグ探しが遅くて大変だったからインセンティブが必要だったが、今では本物のバグを見分けることのほうが難しい
    AIバグハンターは「100個のうち本物を3個見つける」という冗談があるほどだ

    • それでも深刻な脆弱性の探索は依然として人間の領域
      cURLのようなコードベースの脆弱性やバイナリエクスプロイトは、まだAIには無理だ
    • 結局、本物のバグを判定する過程が遅くて大変なのは今も変わらない
  • cURLのAI生成ゴミ報告一覧が公開されている → gistリンク

    • 2つ目のレポートではDanielが丁寧に会話しようとしていたが、相手は名前すら間違えていた
      2023年12月のことだったが、本当に疲れていたのだと思う
    • いくつか読んでみたが、AIが書いたのか初心者の学生が書いたのか区別しにくい
      それでもLLMのほうがもっとそれらしく聞こえる
    • 「Bardでこの脆弱性を検索した」という一文を見て笑ってしまった
      BardをLLMとして言及するのが妙に新鮮に感じられた
    • どれもAIが書いたことは明らかなのに、スタッフが真面目に対応しているのがむしろ不思議に感じられる
    • 正直、読むだけでも腹が立つレベル
      cURLがこれほど長く耐えて対応してきたことに驚く