- AIコーディングツールが生産性を大幅に高めたという主張とは異なり、新しいソフトウェアの爆発的な増加は観測されていない
- PyPIデータを分析した結果、ChatGPT以降も全体のパッケージ生成速度に変化はない
- AI関連の人気パッケージでのみ更新頻度が2倍以上高まり、非AIパッケージは従来の傾向を維持
- このような集中現象は、AI技術そのものによる全般的な生産性向上というより、資金と関心の集中効果として解釈される
- 結果として、生成AIの影響は開発エコシステム全体の拡大ではなく、AI分野内部への活動集中として現れている
AI時代のソフトウェア生産性分析
- AIコーディングツールが生産性を数十倍に高めたという主張にもかかわらず、実際には新しいソフトウェアの爆発的増加は観測されていない
- Pythonパッケージリポジトリ PyPI のデータを通じて、AI導入後のパッケージ生成および更新の傾向を分析
- その結果、AI関連の人気パッケージでのみ更新頻度が急激に増加し、エコシステム全体では目立った変化はない
- この現象は、AI技術自体の生産性向上というより、資金と関心の集中による結果として現れている
パッケージ数の分析
- PyPIの全体パッケージ数は継続的な指数成長を示していたが、ChatGPTの公開時点で目立った変化はない
- 月ごとの新規パッケージ数は5,000〜15,000個の水準で変動
- 2020年以降の一部スパイクは、スパムおよびマルウェア流入によるもの
- AIが開発者の生産性を高めたなら、パッケージ数の急増が観測されるはずだが、データ上そのような現象はない
パッケージ更新頻度の分析
- 単純なパッケージ生成より、保守・管理されているパッケージの更新頻度のほうが、より意味のある指標と見なされる
- 2025年12月時点で最も多くダウンロードされた15,000個のパッケージを分析
- 各パッケージを作成年ごとにまとめ、年次コホートの更新頻度中央値を追跡
- ChatGPT以降に作成されたパッケージは、初年度平均13回更新で、2014年作成パッケージの6回より高い
- しかしこの傾向は2019年からすでに上昇基調を示しており、GitHub Actions などCIツール普及の影響である可能性がある
- すべてのコホートで、パッケージの寿命が長くなるほど更新頻度は低下
- AIツールの利用が古いパッケージの保守頻度を高めているわけではない
AI関連パッケージの特異な現象
- パッケージ説明に基づいてAI関連かどうかを分類した結果、AI関連パッケージでのみ明確な変化が現れた
- 2023年に作成されたAI関連パッケージは、初年度中央値20回更新で、非AIパッケージの約2倍の水準
- AIと無関係なパッケージは、従来と似た緩やかな増加傾向を維持
- したがって、AI関連プロジェクトでのみ集中的な活動増加が確認される
人気要因との関係
- AI関連パッケージの高い更新頻度が単なる人気効果なのかを検証するため、
上位15,000個のパッケージをダウンロード数上位7,500個と下位7,500個に分割
- 結果として、人気のあるAIパッケージでのみ更新頻度が急増
- ChatGPT以降、人気AIパッケージは年間21〜26回更新で、非AIの人気パッケージは約10回水準を維持
- あまり人気のないAIパッケージよりもはるかに高い頻度
総合的な観察結果
- パッケージ生成速度はChatGPT以降も目立った増加なし
- 全体の更新頻度は緩やかに増加したが、これはAI以前から続いていた傾向
- 人気のあるAI関連パッケージでのみ、2倍以上の更新頻度上昇が観測された
解釈と仮説
-
AIが開発者全体の生産性を爆発的に高めたという証拠はない
- 全体として新規パッケージや更新の急増現象は見られない
- 一部の開発者がAIを活用して高速に開発している可能性はあるが、その数や効果は限定的
- AIを活用するソフトウェア自体の開発は活発に進んでいる
- 特にAI関連の人気パッケージで集中的な活動が見られる
2つの仮説
- AIスキルの問題: AIツールを作る人々は、AIを最も効果的に活用できる人々でもあるため、AIパッケージで生産性向上がより大きく現れる。しかしスキルだけでは、人気AIパッケージにのみ集中する現象を説明しにくい
- 資金とハイプ: AI分野に莫大な投資と関心が注がれ、より多くの人員がより多くの作業をこなすことで、パッケージ生成・更新が増えたというもの
- コホート規模の変化がこれを裏づける: 2021年コホートの非AI対AI比率は6:1(1,211 vs 185)だったが、2024年には2:1未満(727 vs 423)へ変化
- 開発者が超人的になったのではなく、AIに対する過熱した関心が資金に転換され、AIパッケージの生成・反復速度を高めたということ
- データだけでは、2つの効果のうちどちらがより大きいかは判別できない
結論
- 生成AI革命の可視的な効果は、ソフトウェア生産性全体の爆発ではなく、
AIエコシステム内部での集中的な活動増加として現れている
- PyPIデータを基準に見ると、AIはすべての開発者を超人的にしたのではなく、
AI関連プロジェクトに資金と労力が集中した結果を示している
4件のコメント
現時点では、開発への参入障壁が低くなったことがいちばん大きな革新のようです。
変わった理屈だな..w。自分はChatGPT以降、別のドメイン開発にAIをものすごく使ってきたけど… 以前なら不可能だったことや、10人くらいの経験者が張り付かないとできないようなことを、今では一人でやっている… これこそ革新じゃないのか?
そうしたイノベーションが嫌だということではないですか? ほとんど報道資料レベルでばらまいているようで、利権が絡んでいる気がします
Hacker Newsの意見
最近はアイデアをプロトタイプ段階まで持っていくのは本当に簡単になった
でも実際のサービスとして出すには、依然として地味なソフトウェアエンジニアリングが必要
「自分でコードを書いて事業を作る」というトレンドに乗った人をたくさん見てきたが、実際にローンチまで行った例はなかった
結局、最後の段階がたいてい時間と労力の大半を食う部分だ
アプリは必ずしも一般公開されなければ役に立たないわけではない
自分や身の回り、あるいはチームの問題を解決するのが目的なら、その「最後の段階」は不要な浪費だ
市場にある製品は問題解決策ではなく、お金を稼ぐための道具だ
AIは「問題解決」のコストは大きく下げたが、「製品化」のコストはそれほど下げていない
だから製品が少ないからといって、問題解決が足りていないとは言えない
これは危険だ。問題の根本原因を見つける能力が退化するからだ
AIは最初の80%を素早く作ってくれるが、品質は疑わしい
結局、試行錯誤型の開発を助長し、経験豊富な開発者ほどこうしたやり方を嫌う
Claudeに機能設計をさせると見事な仕様が出てきて、コーディングエージェントが80%まではうまく作る
でも最後の20%にはずっと長くかかる
その間に新しい機能アイデアが積み上がり、終わりのないバックログと不安が生まれる
実際には誰にもそれを求められていないのに、自分で自分にプレッシャーをかけている形だ
要件収集、設計、承認、インフラ構築、コード作成、テスト、デプロイ、監視まで続く長いプロセスだ
AIはそのうち4〜5段階、つまりインフラとコード作成の部分を速くできる
でも残りは依然として人間の領域だ
PyPI上位15,000パッケージでAIの影響を測るのは適切ではない
むしろiOSアプリの新規登録が24%増加したという統計のほうが意味がある
Appfigures Explorerによれば、2025年の新規アプリは55万7千件で、2016年以降で初めて大幅な増加を見せた
AIが十分に実用的になった時点(2025年12月、Opus 4.5とCodexのリリース)以降、開発生産性が急上昇した
今はStack Overflowで聞いていたことをLLMに聞く時代だ
ドキュメントにアクセスできるLLMなら、質問の95%には答えられる
Stack Overflowがこの変化に耐えるのは難しそうだ
AIコーディングはユーティリティを減らしたり、パッケージとして配布しない内部ツールの形で使われることが多い
経済生産性に寄与する有用なアプリはほとんどない
AIはエネルギーと資本を消費する一方で、実質的な利益はごく小さい
経済的な観点で見ると、AIブームは過熱したバブルに近い
今は「YoloSwag」みたいなプロジェクトがあふれている
Rustで作ったPyTorchの1:1実装だと称してCPU使用量80%削減、速度300%向上などを誇るが、実際には即クラッシュする
テストは全部フェイクのmockで通し、コードも半分はPyTorchバインディング、半分は見当違いのAPIで構成された怪物だ
開発者は「6週間で量子コンピューティングの専門家になった」と主張する元クリプト勢だった
AIを使って自分で学ぼうとしているのではなく、ただ自己顕示のために使っている人たちだ
この文化が変わらない限り、こうした『YoloSwag』式のプロジェクトを見続けることになるだろう
VSCodeを消して、自分だけの超パーソナルダッシュボードを作った
ニュースフィード、課題管理、Markdownエディタ、カレンダー、AIボタンなど、すべてを1画面で処理する
でもあまりに個人化されているので、共有する理由がない
新しいサービスの大半はLLMラッパーかAIツールの域にとどまっている
たとえば自分の買い物習慣に合わせた買い物アプリを20分で完成させた
こうした超パーソナライズドソフトウェアが次の段階だ
あなたの設定を共有すれば、多くのビルダーにインスピレーションを与えられそうだ
AIで作られたものが公開されない理由は単純だ
ほとんどが個人向けに最適化されていて、公開する必要がない
しかも今では実行力よりアイデアそのものが競争力になっているので、わざわざ共有しない
誰もが似たような能力を持てる時代だから、それぞれ必要なものを速く安く作れる
だからAIで作られた成果物は多くても、世の中に公開されるものはむしろ減っている
個人プロジェクトではなく、業界全体の変化を示す証拠が必要だ
そのせいで本当の貢献まで萎縮している
もちろん低品質なAIコードは問題だが、それを理由に全部排除するのは解決策ではない
レビューとテストをきちんとしない文化のほうがもっと大きな問題だ
AIはアプリの最初の90%を簡単に作ってくれるが、最後の10%はずっと難しくする
コードベースは大きくなったのに慣れ親しんだ感覚が失われた状態なので、たいていここで諦める
結局、AIが速く作れても品質とセキュリティの落とし穴は多い
今のAIブームはドットコムバブルを思い出させる
2000年代初頭のように「AIさえ使えばいい」という錯覚の中で資金を燃やしている会社が多い
一方で、静かにAIを導入して業務効率を高める企業もある
結局ほとんどは補助ツールとして残り、完全自動化されたアプリは少数にとどまるだろう
PyPIパッケージ数でAIの影響を測るのは誤ったアプローチだ
実際の生産性向上は非公開リポジトリ、内部ツール、単一目的アプリで起きている
自分もAIで6週間のうちに、オフライン対応、Stripe決済、SEOページまで備えたWebアプリを作った
昔なら6か月はかかっていたことだ
こうした成果はデータセットには現れないが、生産性向上は確実だ
自分も最近はライブラリの利用が減った
AIのおかげで直接API呼び出しを扱うほうが簡単になったからだ
パッケージを配布するのは実質的にオープンソースプロジェクトの運営と同じで、それは非常に消耗する仕事だ
メンテナンス負担と報酬の不均衡のせいで、みんな敬遠する
すでに世の中には十分すぎるほどライブラリがあり、本当に良いものへ統合されていく流れは悪くない
多くの開発者は今や「プロジェクト単位」ではなくコミット単位でAIを活用している
PyPIでAIの効果を測るのは近視眼的だ
代わりにGitHub Octoverse 2025レポートを見ると、
ユーザー数とオープンソース貢献が明確に上昇曲線を描いている
2025年時点で、全貢献の81.5%が非公開リポジトリで行われ、公開リポジトリは63%にとどまる
すでにCursor、Copilotなどいくつものツールがあり、どれも革新だと呼ばれていた
もしAIが本当に10倍速くコードをデプロイできるのなら、爆発的な結果はもう見えていなければならない