- OpenAIは、今後12か月以内に4,000億ドル以上の資金を調達しなければならない状況に直面している
- この金額は、大規模データセンター建設、AIチップ契約、人件費と営業費といった巨大な拡張計画を満たすためのもの
- 1拠点あたりのデータセンター建設費は50億〜600億ドルと推定されており、OpenAIは2029年までに33GW、2033年までに250GWの容量確保を目標としている
- この拡張速度と規模は世界的な金融・インフラ制約を超え、実現そのものが不可能に近いレベルにある
- 現在の計画どおりに進めば、OpenAIは世界の資本市場を深刻に圧迫する一方で、投資家と業界全体に重大なリスクをもたらすことになる
概要
- OpenAIが今後の大規模データセンター建設、チップ契約、運用費などの野心的計画を進めるには、前例のない速度で資金を確保する必要がある
- 来年1年間で最低でも4,000億ドル以上が必要であり、これはOpenAI自身だけでなく、世界の金融システム全体にも大きな負担を与えることを意味する
- 最近公表された10GW級のカスタムチップ提携や複数GW級の導入約束を「合理的で実行可能」と報じる流れには異論がある
- 1GWあたりの構築単価を500億ドルに引き上げ、建屋・電力インフラ・ネットワーキングまで含めた総コストを反映すべきだと考える
- したがって最低2.5年のリードタイムと予備電力容量を考慮すると、日程上ほぼ不可能に近いと判断する
- 過去の推定(325億ドル/GW)を500億ドル/GWに引き上げた理由は、チップ価格、ネットワーキング、付帯インフラ、他社分担の過小計上補正が必要だったためだと考える
- 例えばGB200/Blackwellの単価・台数前提、Lancium調達、8棟/50,000 GPU規模などの上振れ要因がある
2026年下半期タイムラインの検証
- Broadcom: 2026年下半期に推論用チップのテープアウト・量産・1GW配備を目標として提示
- 立地未定・着工前の状態で、IT 1GWあたり総電力1.2〜1.3GWが必要など、日程の衝突可能性が高い
- AMD: 2026年下半期にMI450 1GW 第1回配備を計画
- この時点で完了するためには、前年度の調達・電力契約・着工が先行している必要がある
- NVIDIA: 2026年下半期にVera Rubin 1GW配備を計画
- 同様に、サイト・電力・工事はすでに進行中である必要があり、時期が揃う
- 保守的に見積もっても1,000億ドル超が必要であり、現金先行支払いまたは大規模コンソーシアムが不可避
需要・トラフィック・容量の主張に対する懸念
- 週次8億MAUという数値の重複集計可能性や、2033年に250GW・10兆ドルという計画は非現実的と考える
- 2024年の世界DC IT負荷55GW推定を考えると、単一企業が8年間で5倍拡張するケースは前例がない
- 製品力の観点で最近のGPT-4.5・GPT-5・Sora2の成果の低迷と制約を考えると、膨大なR&D消費に対して成果物価値が不透明である
- 2024〜2025年のR&D 110〜120億ドル規模の支出のうち、実使用モデル訓練費用は限定的だったという外部分析を参照
12か月以内に必要な資金項目(著者推計)
- Broadcom向け1GW: 約500億ドル
- NVIDIA向け1GW + チップ購入: 約500億ドル
- 2026年のコンピュート費用(Oracle・CoreWeave・Azure・GCP経由): 約400億ドル
- AMD向け1GW + チップ購入: 約500億ドル
- 消費者デバイス開発: 約5億ドル
- ARMベースCPU設計協業: 約10億ドル
- 営業・マーケティング・給与などその他OPEX補正: 約100億ドル
- 合計で3,915億ドル ≈ 4,000億ドル、2026年2月以前に大規模な現金需要が必要
財務上の制約と構造的リスク
- 2025年上半期ベースでR&D 67億ドル、S&M 20億ドルの支出推計の文脈で継続的なキャッシュアウトフローが発生している
- 2026年上半期のコンピュート92億ドル消費、売上43億ドル規模の推計との逆ザヤ構造
- 非営利→営利への転換期限とソフトバンク200億ドル条件付きなどのガバナンス・契約上のマイルストーンリスク
- 2024年の66億ドルラウンドにおける2026年10月の負債転換条件も負担
Oracle・CoreWeaveなどインフラ案件の実現可能性
- Oracle 5年3,000億ドル契約の履行にはIT 4.5GWが必要と推定
- Stargate Abileneは現在200MW電力のみ確保しており、予備電力を考慮するとIT 130MW規模
- Shackelford 1.4GW敷地は着工初期で、第一棟H2 2026を目標にしているが、完全稼働は2027年以降に修正が必要
- CoreWeaveの2025年末最大900MW規模の言及を踏まえると、**「2025年2GW稼働」**との乖離は大きい
資本市場・サプライチェーン・電力網の限界
- 必要資金は2024年の世界VC 3,680億ドルを上回り、プライベート・エクイティ案件・世界貿易と比較しても吸収限界は明白
- 変圧器・電力用鋼材・HVインフラ・冷却・電力系統予備率・熟練人材など同時ボトルネックが存在し、日程面の衝突は避けられない
- これらの一連の開示は、株価・案件ドライブ向けのナラティブ的性格が強く、実行可能性は低いとの結論
結論
- 時間・資金・資源・規制・電力の多面的な現実制約により、2026年までの公言スケジュール達成は極めて困難
- 今後12か月以内に4,000億ドルを調達することは、世界の資本市場の吸収力から見ても限界が大きく、未達成時の信頼リスク拡大が起こり得る
- 要点は誇張された容量コミットメントに対して需要・製品力・キャッシュフローが不均衡であり、計画の再現実化・ガバナンス整備・資金調達構造の再設計がなければ持続不可能であるという警鐘である
1件のコメント
Hacker Newsの意見
OpenAIの成長率は印象的だと思うとしても、2か月で1億人増えたからといって、地球上の全人類が常にこのサービスを使うことを意味するわけではない、という見方がある。逆に、これほど速い増加ペースなら、人類全体が常用するだけの潜在力があるとも言える。ただし、成長曲線はS字を描く可能性があるので、無限に幾何級数的成長を続けるわけではない点には注意が必要だ
2か月で1億人増えたからといって、全人類が常に必要とする根拠にはならない。人気と有用性は別物だ。LLM利用増加が生産性などの指標に与える影響に関するデータの方が、より説得力があるはずだ。むしろ、いくつかの研究では専門職の生産性低下を示していることもある。関連研究を見る
個人的には最近になってようやく、検索の代替としてChatGPTを軽く使ってみた。いまの従来型検索はあまりにもひどいので、曖昧な状態のボクサーが70歳のチャンピオンと戦っているような感じだ。これがいつか自分のノートPCで動くようになれば、本当に使えるツールになりそうだ
OpenAIのボトルネックは、当初はGPUだったが、エネルギーへと移った。次のボトルネックは「生身の人間」だろう。おそらくOpenAIは、成長率を維持するためにより多くの人類を作る方法まで見つけ出すだろう、という冗談もある
長期的には、ブラウザ、OS、スマートフォン、ワープロなど広範な製品にそこそこ使えるAIが内蔵されるなら、大衆向けの独立型AI市場は大幅に縮小する可能性がある。専門ツールや最先端研究、コーディングツールには引き続き需要があるだろうが、これだけで兆ドル級企業を作るのは難しいと思う
実際に月額$20を払って加入している人は約5%だ。VRやARのように、無料ならたまに使うが、自分で支払うほど必要ではない。LLMはすでにコモディティ化したと思う
記事の内容も興味深かったが、事実上、OpenAIやAnthropicに対する最大の脅威はオープンソースモデルだと思う。deepseekやllama 3のようなモデルが急速に追いついてきていて、ほぼ同等の機能をはるかに少ない費用、あるいは自分のGPUで無料で使えるなら、OpenAIが打ち出せる価値は何なのか疑問だ。個人的にはOpenAIに有料加入しているが、実際には利便性のためで、数学の検証などにはそれなりに使っている。価格帯を考えると、本当に企業必須のサービスになれるのか疑問だ。もちろんOpenAIには最高の人材が集まり、投資も受けているので、私が間違っているのかもしれない
deepseekやllama 3のようなオープンソースが急速に追いついているとはいえ、大規模モデルの学習には莫大な費用がかかる。現在オープンソースとして公開されているものも、実際には営利企業がオープンソース生態系のために損失を受け入れている形だ。こうした企業が利益追求のために「はしごを外す」ことになったら、対策はあるのだろうか
筆者が主張したい要点は、実際の数値を踏まえて現実的に見るべきだということだ。データセンターを建設し、運用する人材を確保するだけでもかなりの時間がかかる。現在の記事で示されているスケジュールは現実的に不可能だ、という主張である
短期間に多額の資金が投入されるとしても、実際の需要そのものがどこから来るのか、「llamaを自分のGPUで直接回す」ようなセルフサービス型モデルが収益にどれほど寄与するのか疑問だ。何か腑に落ちない
自分のGPUでdeepseekやkimi、glmを高速に動かそうとすると、ハードウェアだけで最低でも$50,000以上必要だ。OpenAIやAnthropicに近い性能を出すには、数百GB以上の高速VRAMが必要になる
人々がOpenAIを使う理由の大半は、ITに不慣れだからだ。現実には広告ブロッカーを使う一般人はほとんどいない。OpenAIは大衆の認識の中に定着した。もしGoogleのように広告を差し込んでいたら、もっと強い地位を築けたかもしれないが、バブル経済と投資詐欺の方を選んだのは見誤りだった
みんな落ち着く必要がある。Altmanがすべてうまくやるだろう。47日後にはChatGPT 6 Recurdという製品が登場して皆を驚かせるはずで、より良いモデルの代わりに古いモデルを再利用し、10個のChatGPT 6料金プランを自動追加購入して、はるかにうまく動くようになる。その後はさらに速くアップグレードしながら、繰り返し性能が1%ずつ上がる仕組みだ。超幾何級数的成長は過小評価されがちだ。2026年初頭には、人類の顧客数に制限されることなく数兆のライセンスを売るだろう。Altmanはそのすべてのための専用コインと自動融資システム、コンピュート先物取引まで計画済みだ。まったく新しい世界だ。「Alt/World!」という新世界だ
なぜデータセンターを「ギガワット」単位で測るのか気になる。実際の計算性能(flopsなど)で測らない理由は何なのか。正直、自分でも「1 GW」のデータセンターなら6502 CPU 1個と大量の抵抗器でも作れそうだと思ってしまう
その理由は、電力容量と冷却がデータセンター建設の最大の制約条件だからだ。コンピュート性能は時間とともに大きく変わるし、実際にはGB200のような最新チップ基準なら1GWで約5エクサフロップスの計算が可能だ(精度などによって異なる)
自分も最近、小規模ながらHW/データセンター運用の経験を積んで感じたのは、GPUと同じくらいスイッチ・ファイアウォール・ストレージなどもすべて電力と冷却を大量に消費するということだ。ある規模を超えると、最大計算性能やHz、GBではなく、どれだけ多くの電力を投入し、熱を外へ逃がせるかが中核的な制約になる。例えば港湾では、太陽光の余剰電力を大規模な抵抗器で消費するプロジェクトもある。安全に高圧電源網へ接続し、熱を迅速に排出することが問題なのだ
ハードウェアやワークロードごとに計算性能の単位が異なるため、普遍的な測定は事実上不可能だ。電力容量=その時点で可能な最大コンピュート容量の近似値、と見てよい。地域別、冷却方式別などのさまざまな変数もカバーできる
粗い概算では、1GWで約14億3千万個の6502チップを動かせる
実際の単位が「電力」なのは、これがあらゆるコスト(コンピュート効率、設備投資、拡張性など)の最終単位だからだ
データセンター建設に必要な初期資本よりも、電力供給事業者こそが本当の産業上の制約だという点を強調したい。今の北米電力網は供給が非常に不足している。実際に大規模データセンターが使える余剰電力がどれだけあるのか、いつごろ追加増設が可能なのか、踏み込んだ調査が必要だ。発電所建設は非常に時間のかかる事業だ。データセンター投資計画の大半は、電力容量が「魔法のように」現れるか、あるいは競争が存在しないことを前提にしているように見える
「OpenAIが今後1年間で$4,000億を注ぎ込む」という主張には問題がある。実際にはOpenAIが直接投資するのではなく、Oracleなどがデータセンターを建設し、OpenAIは賃料を支払う形だ。賃貸契約なので、建設費全額を最初から負担するわけではない。例として、OpenAIは2027/2028年から年間$300億台の賃料を支払うことになり、5年間で段階的に増えていく。NVIDIAやAMDもマイルストーンやチップ導入に応じて投資分を回収し、むしろ供給業者がOpenAIの成長に「賭けて」信用を供与する構図だ。かなり特殊で不安定ではありうるが、「今すぐ$4,000億の現金を保有していなければならない」というのは誤った論理だ。実際の焦点は、OpenAIの売上が2028〜2029年までに少なくとも$600〜700億へ成長できるかどうかだ。この主張は成り立たず、むしろ実行タイムラインと売上成長の進捗こそがリスクだ。参考リンク: CNBC - OpenAI データセンター, w.media - Oracle賃貸契約, CNBC - Nvidia協業, TechCrunch - AMDチップ供給
Ed Zitronはアナリストとして誤った主張や事実誤認が多い。「推論コスト」が上がると強弁していた点についても投稿で扱われている。関連文
OpenAIのWAU(週間アクティブユーザー)は年率換算でおよそ122.8%増加しているが、10か月前の461.8%からは低下している。成長率が安定化するなら、2028年末までに年商最大$1,040億、WAU 64億人に達する可能性がある。数字は断言できないが、OracleとNvidiaはこれを前提に自社株価を維持しなければならないことになる。実際には成長減速が2か月ごとに約20%の水準なので、来年の今ごろで12億WAU、その翌年で14億WAU程度までしか期待しにくい。GoogleやFacebookと比べても依然として低い数値だ
OpenAIが賃貸によって「持ちこたえる構造」である以上、実質的なリスク負担はますます劣後投資家や国民・年金加入者などへと移っていく。Turtles all the way down 参照
Sora 2とアニメーション論争を見て、平均的なテレビアニメ1シーズン/映画は$1,000万〜2,000万で制作可能だと確認した。実際のSora 2開発費がいくらかは分からないが、数百億〜兆単位だとすれば、こうしたアニメを数千本作れることになる。LLMとは少し距離があるが、結局AIが専門人材を代替するとしても、それだけの投資に対する見返りが合理的なのか疑問だ
実際のところ、Sora 2の開発費は数十億というほどではなく、もっと少ない気がする
Sora 2で実際に「番組」を制作できるのか疑問だ。いつもショート動画の話ばかりで、正式なシリーズを作るにはまだ技術的飛躍が必要に見える
SoraやGoogle Flowのようなツールによって、今後はアマチュアでも安価にプロ品質のコンテンツを生産できるようになるだろう。何千本ものアニメを作ることも不可能な領域ではない
こうした超大型投資は、単なるチャットボットのROI以上の何かによって埋め合わせられてこそ正当化されると思う
これほどの金額が、実際にどれだけの速さで発電所、データセンター、シリコン設計・生産などへ投入できるのか、インフラ産業も急激なバブルの後に大きな調整局面を迎えるのか、それとも本当に産業革命級の大転換が来るのか気になる。高セキュリティ組み込みシステム向けインフラのスタートアップ共同創業の提案もある
なぜAnthropicには同様の資本需要がないのか、という疑問がある
Anthropicはコスト開示により慎重だ。Ed ZitronがいまGCPコストを重点的に追っている
これは「AGI」構築に関する議論であり、Anthropicの現行サービスとは別の話だ。また、知能が計算量に応じて無限に伸びる保証もない
Anthropicにも実際には似たような投資が必要になりそうだ。ただ、筆者がOpenAI中心に扱っているだけのように見える
成長傾向が続くなら、Anthropicにも大規模投資が必要になるだろう
Anthropicはオーバーフロー時にTPUをより積極的に使っているようだ。最近のClaude性能低下はTPUおよび実装差によるバグが原因で、彼らのNvidia/TPU混在運用についてある程度推測できた。OpenAIがGoogleインフラへ重みを配備したという話はまだないようだ
データセンターのcapexモデルについても、目標が100%稼働率で、node uptime(可用性)よりcapex効率の方が重要だとしたら、どう変わりうるのか聞いてみたい。NVidiaなどのマージン調整次第では、コストが1〜2桁下がる余地があると見ている。OpenAIが従来とは異なる低信頼性のデータセンターを安価な立地に建設するなら、多少は現実味があると思う。ただし、OpenAIは来年までに400億ドル以上をデータセンターへ投じる可能性が高い。既存のデータセンターは可用性に非常に敏感だが、この規模ではOpenAIはラックのuptimeや施設全体のuptimeをそれほど気にしないだろうと思う