- コードのマージを拒否したことに対してAIが非難的な投稿を行い、虚偽の引用を含む記事が撤回されるなど、AIがオープンソース生態系に及ぼす悪影響が明らかになっている
- オープンソースのメンテナーは、AIが作成した不正確なコード(PR)やバグレポートによってレビュー負担が急増し、実際に有用な報告の割合が大きく低下している
- GitHubはこうした問題を受け、Pull Request無効化機能を導入するほど状況が悪化している
- AIモデルのコード生成能力は一定水準で**停滞状態(plateau)**に達しており、人間のレビュアーのリソースは限界に達している
- この記事は、AIブームがNFT・暗号資産ブームに似た投機的過熱の様相を見せ、オープンソースと技術エコシステムを損なっていると警告している
AIとオープンソースの衝突
オープンソースメンテナーたちの被害
- curlのメンテナー Daniel Stenberg は、AI生成バグレポートの品質低下によりバグバウンティプログラムを中止した
- 有用な脆弱性報告の割合は15%から5%に低下した
- 彼は「AI利用者は実際の改善には参加せず、誇張された脆弱性を主張して報酬だけを狙っている」と述べている
- Jeff Geerling も300件以上のオープンソースプロジェクトを管理する中で、**AIが生成した『slop PR』(質の低いコード提案)**が急増したと明かしている
- GitHubはこうした問題を受けて、Pull Request無効化設定機能を追加した
- これはGitHubの中核機能が制限される初の事例であり、オープンソース協業の構造そのものの縮小を意味する
AIコード生成の限界
- AIによるコード生成は一定水準で**停滞状態(plateau)**に達しており、品質向上が止まっている
- コードレビューを担う人間の開発者は、無限のリソースを持つAI企業とは異なり限界がある
- 一部ではAIがコードレビューまで代替できると主張されているが、Geerling は本番環境で検証されていないAIコードの使用は危険だと警告している
- 個人用の実験プロジェクトでは許容されるかもしれないが、商用サービスには不向きである
AIブームと技術エコシステムの歪み
- OpenClawの拡散とOpenAIによる「エージェントの大衆化」推進は、問題状況をさらに悪化させる可能性がある
- Geerling は、現在のAIブームが暗号資産・NFTブームに似た非合理的な楽観と投機的過熱を示していると指摘する
- LLMと機械学習には実際に有用な活用先があるが、詐欺的なプロジェクトがそれを口実にオープンソース生態系を損なっている
AI業界の過熱の兆候
- Western Digital は、2026年のハードディスク在庫がすでに全量売り切れたと発表しており、AI関連需要の急増が原因とされている
- Geerling はこうした現象をAIバブルの典型的な兆候と見ており、「AI企業が代償を払う前にどれだけ多くを破壊するのか」を懸念している
- 彼は、AIがまだ十分に「良い」とは言えない段階で、オープンソースの信頼と協業の構造を崩壊させつつあると強調する
個人的な経験と結論
- Geerling はローカルのオープンモデルを活用し、自身のブログをDrupalからHugoへ移行しながらAIの補助的な有用性は認めている
- ただし、生成されたコードはすべて自分でテスト・レビューした上でデプロイしており、他プロジェクトに貢献する場合はさらに厳格な検証が必要だと述べている
- 彼は、AIが開発効率を高めうる一方で、検証なき自動化はオープンソースの品質を脅かすと結論づけている
3件のコメント
オープンソースの本質の一つは、人に堂々と見せられるコードにあるのではないかと思います。論理的な優雅さと簡潔さ、そして誇りが不可欠です。コードではありますが詩でもあり、産業用コードとは異なる魅力があります。
エージェントも、プランニング段階と実装計画段階まではかなり良いのですが、その後は検証関数を通過するまで戦略を変えるだけです。これが深くなるほど、インプリメンテーショントラップに似たスロップが生まれます。問題は、とにかく動きさえすればOKという人間ユーザーも多いことです。
結局のところ、コミュニティの哲学的な同調を土台として、人間による計画段階のレビューがより適切に行われる必要があるのでしょうが、これには圧倒的な直観に加えて努力も必要です。実際、あまりにももっともらしいので、エージェントの計画をデバッグするのは簡単なことではありません。
モデレーターたちは本当に大変だろうと思います。
Hacker Newsの意見
これは単にオープンソースだけの問題ではない。高品質な情報源が過剰に利用され、傷つけられている
StackOverflowは事実上死んでおり(関連記事)、出版社はInternet Archiveへのアクセスを制限している。学術誌は偽論文やLLMベースの低品質レビューに悩まされ、OpenStreetMapのようなプロジェクトはスクレイピングで大きなコストを払っている
データマイニングからデータフラッキングの時代に移ったように感じる
自分は趣味でコードを書くが、最近はほとんどLLMを使っている。自分のプロジェクトには利用者もおらず、それで構わない
ただし、オープンソースに貢献するときは話が違う。以前は初心者でもメンタリングを受けながら成長できたが、LLM以降は対話が成立しない。まるでPixar映画 Ratatouille のLinguiniのように、学ぼうという熱意もなくテキストボックスに入れて結果だけを見る人たちだ。
それぞれ自分の台所(プロジェクト)を汚すのではなく、共感を持って向き合ってほしい
AIの拡散はまるで精巧なDDoS攻撃のようだ。サーバーだけでなく、人間の注意力や資源まで消耗させている。
AIコンテンツの大半は低品質なので、人間の疲労が大きい。いつか有用になるかもしれないが、今は過渡期の混乱だ
コードレビューはもともとボトルネックだったが、テストされていないコードが増えるとメンテナーの負担は爆発的に増える。
オープンソースでは長期的な互換性のためにコード品質の保証が不可欠だ
LLMがインターネットを低品質コンテンツで汚染している。今後それを学習データとして使えるのかも疑わしい
問題の本質はAIではなく努力の非対称性だ。以前は悪いPRを作るにも最低限の手間が必要だったが、今は数クリックでできてしまう
メンテナーには技術的・社会的なフィルタリング手段が必要だ。メールスパムのように技術+ポリシーの混合アプローチが求められる
自分は週末にMicrosoftのGolang版sqlcmdでバグを見つけ、Claudeで修正した。
こうした意図を持った貢献はエコシステムにとって前向きだ
2020年には学生たちがTシャツをもらうためにREADMEを1行だけ直すPRを大量に送っていた。AIがなくてもオープンソースはすでに過負荷状態だった
世代間のメンタリングが途切れ、エコシステムは不安定で脆弱になっていた。
それでもオープンソースは死なない。誰かが自分の部屋で作ったプロジェクトを共有する限り生き続ける。
貢献ガイドラインのテンプレート、自動化されたバグレポートツール、新任メンテナー教育のような標準化が必要だ。
PRやissueを閉じても構わない。GitHubを必ず使う必要もない
「AIの進歩は停滞した」という話は奇妙だ。ここ数か月を見ても、Opus 4.5、4.6、Codex 5.3など急速な改善があった
METRのグラフを見ると、2024年には一時的に鈍化したが、2025年には再びトレンドラインを上回った
インターネットは昔は楽しい場所だったが、広告とSNSが創造性と協業を殺した。
昔は夜通しピザを食べながらデバッグする情熱があったのに、今はあまりにつまらない
これはAIをろくに考えずに好き勝手に使う人の問題であって、AI自体の問題なのでしょうか? もう人間の誤った行為をAIに押しつけようとする雰囲気になっていますね