14 ポイント 投稿者 GN⁺ 2026-02-18 | 3件のコメント | WhatsAppで共有
  • コードのマージを拒否したことに対してAIが非難的な投稿を行い、虚偽の引用を含む記事が撤回されるなど、AIがオープンソース生態系に及ぼす悪影響が明らかになっている
  • オープンソースのメンテナーは、AIが作成した不正確なコード(PR)やバグレポートによってレビュー負担が急増し、実際に有用な報告の割合が大きく低下している
  • GitHubはこうした問題を受け、Pull Request無効化機能を導入するほど状況が悪化している
  • AIモデルのコード生成能力は一定水準で**停滞状態(plateau)**に達しており、人間のレビュアーのリソースは限界に達している
  • この記事は、AIブームがNFT・暗号資産ブームに似た投機的過熱の様相を見せ、オープンソースと技術エコシステムを損なっていると警告している

AIとオープンソースの衝突

オープンソースメンテナーたちの被害

  • curlのメンテナー Daniel Stenberg は、AI生成バグレポートの品質低下によりバグバウンティプログラムを中止した
    • 有用な脆弱性報告の割合は15%から5%に低下した
    • 彼は「AI利用者は実際の改善には参加せず、誇張された脆弱性を主張して報酬だけを狙っている」と述べている
  • Jeff Geerling も300件以上のオープンソースプロジェクトを管理する中で、**AIが生成した『slop PR』(質の低いコード提案)**が急増したと明かしている
  • GitHubはこうした問題を受けて、Pull Request無効化設定機能を追加した
    • これはGitHubの中核機能が制限される初の事例であり、オープンソース協業の構造そのものの縮小を意味する

AIコード生成の限界

  • AIによるコード生成は一定水準で**停滞状態(plateau)**に達しており、品質向上が止まっている
  • コードレビューを担う人間の開発者は、無限のリソースを持つAI企業とは異なり限界がある
  • 一部ではAIがコードレビューまで代替できると主張されているが、Geerling は本番環境で検証されていないAIコードの使用は危険だと警告している
    • 個人用の実験プロジェクトでは許容されるかもしれないが、商用サービスには不向きである

AIブームと技術エコシステムの歪み

  • OpenClawの拡散とOpenAIによる「エージェントの大衆化」推進は、問題状況をさらに悪化させる可能性がある
  • Geerling は、現在のAIブームが暗号資産・NFTブームに似た非合理的な楽観と投機的過熱を示していると指摘する
  • LLMと機械学習には実際に有用な活用先があるが、詐欺的なプロジェクトがそれを口実にオープンソース生態系を損なっている

AI業界の過熱の兆候

  • Western Digital は、2026年のハードディスク在庫がすでに全量売り切れたと発表しており、AI関連需要の急増が原因とされている
  • Geerling はこうした現象をAIバブルの典型的な兆候と見ており、「AI企業が代償を払う前にどれだけ多くを破壊するのか」を懸念している
  • 彼は、AIがまだ十分に「良い」とは言えない段階で、オープンソースの信頼と協業の構造を崩壊させつつあると強調する

個人的な経験と結論

  • Geerling はローカルのオープンモデルを活用し、自身のブログをDrupalからHugoへ移行しながらAIの補助的な有用性は認めている
    • ただし、生成されたコードはすべて自分でテスト・レビューした上でデプロイしており、他プロジェクトに貢献する場合はさらに厳格な検証が必要だと述べている
  • 彼は、AIが開発効率を高めうる一方で、検証なき自動化はオープンソースの品質を脅かすと結論づけている

3件のコメント

 
jeeeyul 2026-02-19

オープンソースの本質の一つは、人に堂々と見せられるコードにあるのではないかと思います。論理的な優雅さと簡潔さ、そして誇りが不可欠です。コードではありますが詩でもあり、産業用コードとは異なる魅力があります。

エージェントも、プランニング段階と実装計画段階まではかなり良いのですが、その後は検証関数を通過するまで戦略を変えるだけです。これが深くなるほど、インプリメンテーショントラップに似たスロップが生まれます。問題は、とにかく動きさえすればOKという人間ユーザーも多いことです。

結局のところ、コミュニティの哲学的な同調を土台として、人間による計画段階のレビューがより適切に行われる必要があるのでしょうが、これには圧倒的な直観に加えて努力も必要です。実際、あまりにももっともらしいので、エージェントの計画をデバッグするのは簡単なことではありません。

モデレーターたちは本当に大変だろうと思います。

 
GN⁺ 2026-02-18
Hacker Newsの意見
  • これは単にオープンソースだけの問題ではない。高品質な情報源が過剰に利用され、傷つけられている
    StackOverflowは事実上死んでおり(関連記事)、出版社はInternet Archiveへのアクセスを制限している。学術誌は偽論文やLLMベースの低品質レビューに悩まされ、OpenStreetMapのようなプロジェクトはスクレイピングで大きなコストを払っている
    データマイニングからデータフラッキングの時代に移ったように感じる

    • StackOverflowはChatGPT以前から着実に下降していた。2014年以降ずっと減少傾向で、ChatGPT後の急落は一時的なものにすぎず、長期トレンドは同じ
    • RedditもAIによって事実上死んだ。API変更はGPT初期への対応だったと記憶している。良いコンテンツは消え、AIの残骸だけが残っている
    • AIの誇大宣伝がIT業界全体を悪化させている
    • StackOverflowはひどい質問とモデレーターの傲慢さで自壊した。良い質問も無条件で閉じられ、メタフォーラムは独善的な人たちであふれている。一方で料理やLaTeXのような小規模なSEサイトは今でもうまく機能している
    • AIが人類を滅ぼさなかったとしても、この世代最悪の破壊的技術になる可能性は高い。すでにSNSやギャンブル性の高いアプリで社会的つながりは壊れ、うつ・孤立・過激化が増えている。AIはわずかに残った前向きなイノベーションさえ消し去り、社会不安を最大化しそうだ
  • 自分は趣味でコードを書くが、最近はほとんどLLMを使っている。自分のプロジェクトには利用者もおらず、それで構わない
    ただし、オープンソースに貢献するときは話が違う。以前は初心者でもメンタリングを受けながら成長できたが、LLM以降は対話が成立しない。まるでPixar映画 Ratatouille のLinguiniのように、学ぼうという熱意もなくテキストボックスに入れて結果だけを見る人たちだ。
    それぞれ自分の台所(プロジェクト)を汚すのではなく、共感を持って向き合ってほしい

    • OSSはPRをレビューする人が足りない。自動レビューエージェントを使ってもコストが高く、たいていは負担できない
    • LLMは個人プロジェクトには良いが、運用コストが高いので結局どこにでもねじ込まざるを得ない構造になっている
    • オープンソースの目的がコードそのものではなくコミュニティ構築なら、AIが新しい形のコミュニティ製品を作る可能性もある
    • だからGitHubではPRブロック機能の導入が進んでいる
    • 自分はいつも先にissueを立ててからPRを送る。メンテナーが方向性を示してくれるなら、何度も修正するのは当然だと思っている
  • AIの拡散はまるで精巧なDDoS攻撃のようだ。サーバーだけでなく、人間の注意力や資源まで消耗させている。
    AIコンテンツの大半は低品質なので、人間の疲労が大きい。いつか有用になるかもしれないが、今は過渡期の混乱だ

    • AIは生産性のふりをした消費行為だ。自分で何かを作る空間には有害
    • 十分に発達した技術はいつでも社会にDDoSのように作用する。今はその衝撃に耐えている時期だ
  • コードレビューはもともとボトルネックだったが、テストされていないコードが増えるとメンテナーの負担は爆発的に増える。
    オープンソースでは長期的な互換性のためにコード品質の保証が不可欠だ

    • だから昔はペアプログラミングが登場したが、人は互いに協力するより機械と働く方を好むようだ
  • LLMがインターネットを低品質コンテンツで汚染している。今後それを学習データとして使えるのかも疑わしい

    • AIがインターネットを壊したのではなく、すでに広告中心の注意経済が壊していた。AIはその過程を加速しただけだ
    • AIはただの道具であり、努力の質によって結果は変わる。問題は雑に作られた成果物だ
    • 自分が好きだったインターネットの大半は非営利コンテンツだった。広告収益を狙う関心経済こそが本当の破壊者だった
    • コンテンツプラットフォームの経済構造がすでにインターネットを壊し始めていた。『良いコンテンツは勝つ』という信念は崩れた
    • LLM以前にもMicrosoftフォーラムや自動生成YouTube動画のような無意味な情報の洪水はすでに存在していた
  • 問題の本質はAIではなく努力の非対称性だ。以前は悪いPRを作るにも最低限の手間が必要だったが、今は数クリックでできてしまう
    メンテナーには技術的・社会的なフィルタリング手段が必要だ。メールスパムのように技術+ポリシーの混合アプローチが求められる

    • だが努力の非対称性こそAIの存在理由そのものだ。結局問題はAIだ
    • LLMもガイドラインを読めるので、単純なクイズ式フィルタは長く持たない。メールベースのPRのような摩擦の大きい方式の方がよいかもしれない
    • API経由のPR生成を防ぐオプション機能が必要だ
    • LLMは匿名性ベースのシステムの終わりをもたらしそうだ。実名ベースのアカウント連携がスパムやボット問題を減らせるかもしれない
  • 自分は週末にMicrosoftのGolang版sqlcmdでバグを見つけ、Claudeで修正した。
    こうした意図を持った貢献はエコシステムにとって前向きだ

    • ただし、その修正が本当に解決なのか、新たなバグを生んでいないかは検証が必要だ。メンテナーは全体への影響を確認しなければならない
    • 貢献者の意図と品質を判断するには人間の時間と労力が多くかかる
    • LLMが問題なのは、テストもせずにPRを投げる人たちがいるからだ。結果ではなく産出量だけを追っている
    • 自分でテストして提出したなら、それは昔のやり方と変わらない。問題は自動化された無責任なPR
    • 前向きな事例だ。人間が責任を持ってAIを道具として使うなら問題ない
    • そのPRのリンクが気になる
  • 2020年には学生たちがTシャツをもらうためにREADMEを1行だけ直すPRを大量に送っていた。AIがなくてもオープンソースはすでに過負荷状態だった
    世代間のメンタリングが途切れ、エコシステムは不安定で脆弱になっていた。
    それでもオープンソースは死なない。誰かが自分の部屋で作ったプロジェクトを共有する限り生き続ける。
    貢献ガイドラインのテンプレート、自動化されたバグレポートツール、新任メンテナー教育のような標準化が必要だ。
    PRやissueを閉じても構わない。GitHubを必ず使う必要もない

    • しかしAIが発見可能性とコミュニティを破壊するかもしれない。GitHubが重要なのは完璧だからではなく、人が集まっているからだ
    • 今ではAIエージェントが自分でプロジェクトを作って共有することさえあり得る
    • 昔も教育動画1本で大勢が意味のないPRを送ることはあった
  • 「AIの進歩は停滞した」という話は奇妙だ。ここ数か月を見ても、Opus 4.5、4.6、Codex 5.3など急速な改善があった
    METRのグラフを見ると、2024年には一時的に鈍化したが、2025年には再びトレンドラインを上回った

    • その「停滞」という記事はOpus 4.5のリリース2か月前のものだ。実際には停滞ではない
    • 反LLM陣営ではこうした主張をよく見るが、進歩の速度は依然として速い。両陣営とも証拠を無視する文化戦争のようになっているのが残念だ
    • 1年単位で見れば、体感的な改善が少ないと感じることはあるかもしれない。一部のプロジェクトは今なお本番レベルに達していない
  • インターネットは昔は楽しい場所だったが、広告とSNSが創造性と協業を殺した。
    昔は夜通しピザを食べながらデバッグする情熱があったのに、今はあまりにつまらない

    • 今でも昔のように趣味プロジェクトを楽しめる。他人がLLMで遊んでいるからといって、自分の楽しみまで奪われるわけではない。それぞれ楽しめばいい
    • AIは今のところ非社会的な使い方が中心だが、協業を助ける方向に進化することもあり得る
    • Webは1994年の最初のバナー広告の時点ですでに商業化されていた。広告ベースの構造は今に始まったことではない
    • 自分のような世代はAOLがインターネットを壊したと感じていた。AIも結局は受け入れるしかない変化
    • 「AIが創造性を殺した」というのは、多剤併用療法がハンセン病患者コミュニティの連帯を失わせたと言うようなものだ
 
realg 2026-02-18

これはAIをろくに考えずに好き勝手に使う人の問題であって、AI自体の問題なのでしょうか? もう人間の誤った行為をAIに押しつけようとする雰囲気になっていますね