1 ポイント 投稿者 GN⁺ 2025-10-06 | 1件のコメント | WhatsAppで共有
  • Nvidiaが1,100億ドル規模の投資でOpenAIなどのAIインフラに大規模な資金を投じる中、過去の通信バブルに類似した循環型ベンダーファイナンス構造の再現を懸念する議論が出ている
  • 2025年、米国の主要IT企業は3,000〜4,000億ドルのAIインフラ投資を予告しており、顧客基盤の集中やGPU担保融資などのリスクが拡大している
  • Lucentの失敗の経緯とは異なり、Nvidiaはキャッシュフロー、顧客の信用力、会計の透明性で差別化されている一方、顧客集中、資産評価、カスタムシリコン開発の拡大は警戒要因として挙げられている
  • AI需要が実需なのか、クラウドのように必須インフラ化するのか、それとも単なるバブルにすぎないのかについて、継続的なモニタリングの必要性が強調されている
  • Lucentの会計不正事例のように過去の構造的リスクが繰り返されないよう、Nvidiaおよび業界全体の資産価値、収益モデル、負債リスクなどを注意深く見ていく必要がある

序論:Nvidiaと循環金融、そして通信バブルの影

  • 2025年、NvidiaがOpenAIなどに1,100億ドルのベンダーファイナンスを実施し、通信バブル当時の大規模な循環金融構造との類似性が浮き彫りになっている
  • 米国のビッグテックは2025年に3,000〜4,000億ドル規模の過去最大級のAIインフラ投資を予告している
  • この投資規模は、従来の単年度における企業インフラ投資記録を大きく上回る

Lucentの戦略:循環金融の教訓

  • 1999年、Lucent Technologiesはドットコムバブルの頂点で379億ドルの売上を記録したが、その後わずか3年で69%急落し、最終的にAlcatelとの合併へと進んだ
  • 当時、LucentやNortel、Ciscoなどの機器ベンダーは数十億ドル規模のベンダーファイナンスを通じて、顧客である通信事業者に機器購入資金を直接提供していた
    • Lucent 81億ドル、Nortel 31億ドル、Cisco 24億ドルの融資コミットメント
  • この戦略は当初、誰にとっても有利に見えたが、市場の飽和と資金逼迫が訪れると、顧客企業の大半(47のCLEC)が破綻し、融資額の33〜80%が回収不能、機器価値も暴落するという致命的な結果につながった
  • 実際、光ファイバーネットワークは利用可能容量の0.002%しか使われておらず、需要に比べて投資のタイミングがあまりにも早すぎた

Nvidiaの戦略:差別化された循環金融構造

  • Nvidiaは2025年時点で直接投資1,100億ドル(売上の85%)、GPU担保融資150億ドル以上を運用している
    • OpenAIとは1,000億ドルの具体的なコミットメント(10回の分割トランシェ、インフラ構築段階ごとの支払い、実質的な資金流入はGPUリース形式)
    • CoreWeave、NVenturesなどへの追加投資やGPU担保融資市場の拡大も進んでいる
  • CoreWeaveは104.5億ドルのGPU担保負債を抱えており、Lambda Labsなど他のAIスタートアップもGPUを融資担保として活用している

数値比較:Lucent vs Nvidia(2024年ドル換算)

項目 Lucent(2000年) Nvidia(2025年)
ベンダーファイナンス 150億ドル 1,100億ドル
営業キャッシュフロー 3億ドル 154億ドル(22会計年度第2四半期)
年間売上高 340億ドル 1,300億ドル
上位2社の顧客比率 23% 39%

注意すべき点:新たな市場リスク構造

1. より集中したAI顧客基盤

  • Nvidiaは上位2〜4社の顧客に売上の46%が集中しており、Lucent比で2倍に達する顧客集中が見られる
  • 売上の88%がデータセンターから発生している

2. GPU担保融資の拡大と在庫リスク

  • GPUは4〜6年の価値維持を前提に、14%の高金利融資に活用されている(投資適格社債の3倍水準)
  • 実際のGPUの実使用寿命は1〜3年にとどまることが示されている(Googleの設計者・Metaの実例)
企業 2020年以前 2020年 2022〜2023年 2024〜2025年 変化幅
Amazon 3年 4→5年 5年 6→5年 初の短縮
Microsoft 約3年 4年 6年 6年 +100%
Google 約3年 4年 6年 6年 +100%
Meta 約3年 4年 4.5→5年 5.5年 +83%
CoreWeave N/A N/A 4→6年 6年 +50%(GPU)
Nebius N/A N/A 4年 4年 業界標準
  • Amazonは2025年、減価償却期間を6年から5年に戻し、初めて保守的な会計慣行を適用した

  • CPUは5〜10年使われるのが一般的だが、AIデータセンターのGPUは実運用で1〜3年以内に置き換えられることが多い(Meta Llama 3:年9%の故障率 → 3年間で27%の不良を予測)

  • 主要金融機関(例:Cerno Capital)は、「こうした減価償却方針が本当の経済的・技術的現実を反映しているのか、それとも投資家の注意をそらすための『錯覚』戦略なのか」と疑問を呈している

4. SPV(特別目的会社)構造の活用

  • 大手テック企業はApolloなどのプライベートエクイティとSPV共同投資を組み、データセンター建設資金を調達している

    • SPVがデータセンターを保有・運営し、長期リースでテック企業に提供する
    • SPVの負債は会計上テック企業の財務諸表に反映されない(オフバランス処理)
    • 一般に資本10〜30%、負債70〜90%の構造
  • この構造には信用力保護や投資額の見え方を抑える利点がある一方、データセンター稼働率の低下やGPU価値の下落が起きた場合、薄い資本層を持つ保有者(Equity holder)から損失が発生する

  • 現在、データセンター資産は主要不動産投資信託(REIT)ポートフォリオの10〜22%を占めており、2年前の「0」から急増している

5. カスタムシリコン競争リスク

  • Microsoft(Maia)、Google(TPU)、Amazon(Trainium/Inferentia)、Meta(MTIA)など、自社開発AIアクセラレータの利用が拡大している
  • 顧客企業が独自チップへ移行した場合、CoreWeaveなどのGPU担保資産価値が下落し、Nvidiaのベンダーファイナンスリスクが拡大する

NvidiaとLucentの本質的な違い

  • Lucent:11億ドルの売上操作、経営陣10人がSECに起訴され、財務諸表への信頼を失った
  • Nvidia:PwC監査、格付け改善、毎年500億ドル超の現金を創出し、462億ドルの純現金を維持(2024年)
  • Lucent:顧客企業の大半が過度な負債レバレッジを使い、赤字状態にあった
  • Nvidia:主要顧客(Microsoft、Alphabet、Amazon、Metaなど)は2024年時点で4,510億ドルの営業キャッシュフローを持ち、ファンダメンタルズは良好
  • Lucentでは投資に対する活用率が0.002%にすぎなかった一方、Nvidiaでは主要顧客がAIインフラ不足(供給制約)を報告している

注目すべき指標

  1. GPU稼働率:実際のデータセンターでGPU使用量が十分か、単なる在庫積み増しにすぎないのか継続監視が必要
  2. OpenAIの収益性:大規模インフラ構築が十分な収益につながっているか確認が必要
  3. 負債不良の兆候:150億ドル規模のGPU担保融資市場で返済不能の兆候を確認する必要がある
  4. AR(Accounts Receivable)管理トレンド:AR比率は改善(68%→30%)しているが、さらなる悪化に注意が必要
  5. 顧客の多様化:新たな顧客層を獲得できるか、少数大口顧客への依存が続くかを継続監視
  6. カスタムシリコン問題:ハイパースケーラーの独自チップ移行時に、Nvidiaのファイナンス露出リスクが拡大
  7. ベンダー統合トレンド:市場で多様な代替案が試された後、最終的に一部ベンダーへ需要が集中する可能性
  • 米国におけるAIの実使用率は2023年の20%から2025年には40%へ急増
  • しかしMITの研究によれば、AI導入パイロットの95%が実質的な財務成果を出せておらず、統合上の課題も指摘されている
  • それでもAI人材の賃金は2倍に上昇し、利用者の生産性も最大40%改善するなど、前向きなシグナルも確認されている
  • OpenAIは2025年上半期に43億ドルの売上、47億ドルの損失(半分は株式報酬)を計上しており、依然として赤字だ
  • 過去とは異なり、現在の大口顧客は十分な現金を持ち、成果重視の経営を維持しており、実際のインフラ需要も存在している

結論:循環金融の構造的リスクと2025年のAI市場

  • Nvidiaの大規模なベンダーファイナンス戦略は、明確な成長と技術需要を活用する一方で、顧客集中、資産価値の変動、カスタムシリコン導入といったリスクを内包している
  • Lucentの事例のように、資産の過大評価、負債不良、会計透明性の低下が起きれば、リスクは急速に現実化しうるため、主要メトリクスと市場動向の厳格なモニタリングが必要だ

付録:Lucentの会計不正と循環金融危機

  • Lucentは2000年の会計不正(売上11.5億ドル、税引前利益4.7億ドルの操作)でSECの調査を受けた
    • 「チャネルスタッフィング」:販売会社に未販売製品を先送りし、売上として一括計上
    • 「サイドアグリーメント」:流通契約とは別に返品権や特典を付与したうえで売上認識
    • 「引当金操作」:過大な貸倒引当金の設定・戻し入れによって業績変動性を最小化
  • Lucentは2億5,000万ドルの制裁金を科され、役員10人が起訴された
  • 代表例として、WinStarに20億ドルのファイナンスを提供した後にWinStarが破綻し、Lucentは7億ドルの損失を記録した
  • このようなパターンで2001〜2002年に35億ドルの貸倒引当金を積み増し、実質的な不良リスクが表面化した典型例となった

1件のコメント

 
GN⁺ 2025-10-06
Hacker Newsの意見
  • 90年代に地元の小規模ISPで働いていた経験があるが、当時はLucentがインターネット機器分野で最も先行していた。私たちはPortmaster 3を使ってダイヤルアップ接続を処理し、Lucentの初期の無線技術も検討していた。
    1996年通信法(Telecommunications Act of 1996)のおかげで通信事業者はインフラを他社に賃貸しなければならず、その結果ISPのT1賃料が大幅に低下した(T1は96年に月額1800ドルだったものが99年には600ドルに低下)。その後、通信事業者がFCCを相手取って訴訟を起こし、2003年にこの法律は事実上無力化された。
    競争的地域交換事業者に関するWikipediaの説明

    • 地域によって価格差は大きかった。私が働いていた小規模ISPでは、T1は月額1,500ドルから500ドルになり、その後、顧客まで届くT1ループは月額100ドル、回線全体をデータセンターにバックホールするOC12 SONETリングには数千ドルを払っていた。
      これらすべての価格変動の核心的な要因は、通信法で定められたILECのネットワーク設備のアンバンドル販売義務だった。
      大半のCLEC(競争事業者)も結局は地域のILEC物理網を使っていたため、構造的変化は大きかった。
      面白いことに、90年代後半にダイヤルアップがまだ主流だった頃、音声T1 PRI(月額250ドル)の方がデータT1(月額500ドル)より安く、よく活用されていた。
      通信法が無力化された後もILECは卸売/アンバンドルサービスを売り続けており、この事業が高収益であることをすでに把握していたようだ。

    • 私はテレコムブーム期にスタートアップで働いていた。
      当時はCiscoのような企業がまだ製品のないスタートアップを買収することもあり、IPOだけが唯一のイグジットで、エンジニアは6か月のロックアップに縛られていた。
      運の良い人は暴落前にIPOや売却で抜けられたが、バブル崩壊後は資金が枯渇し、ほとんどすべてのスタートアップが倒れた。
      数年にわたる停滞の後、新しいIT企業が再び生まれ始めた。

    • わずか4年の規制だけで通信大手と小規模ISPの間の力関係が変わったように聞こえるが、本当にそうなのか興味深い。
      特定の規制がインターネット発展に火をつけたという説明は、従来の予測(規制がなければ破綻するという主張)と相反している。
      こんな短期間だけ適用された法律だけで十分だったという主張は初めて聞いた。

    • 通信競争を殺し独占を認めたことは、司法制度の大きな問題だった。
      法律は明確だったが、裁判所は「光ファイバーを敷くのは高価だ」という論理で立法を事実上無視した。
      価格について言えば、T1やOCxのような回線は依然として多く使われていたが、96年から99年にはDSLが登場し、価格を大きく押し下げる効果をもたらした。

    • 立法の変化が価格競争と通信バブルのタイミングに影響した可能性はある。
      しかし価格競争自体は不可避で、バブルもかなり起こりやすい現象だった。
      通信インフラ投資は、ドットコム株価バブルが狂ったように上昇していたことへの反応だった。

  • 光ネットワークは最大容量の0.002%未満しか使われておらず、速度も60,000倍まで上げられる余地があった。早すぎただけだった。
    GPUはそこまで余ることはないと思う。
    「コードベースを一晩かけて考えて、もっと良いリファクタリング方法を見つけて、明日提案してくれ」のように使えるようになれば、GPU使用量は今よりはるかに多く必要になる。
    GPUを1分使って0.1ドルなら、一晩回して48ドルで、かなり価値がありそうだ(コード改善、自動車設計、本の表紙、事業計画など、どんな作業でも)。

    • GPUが余ることはないと思うが、私はむしろ必ず余ると思う。
      企業はGPUがあふれ出るのを買い続け、需要が無限だと仮定している。
      一方でLLM疲れが起き、モデルはますます小さくなり、消費者向けハードウェアも進歩している。
      結局は遊休GPUが大量に生まれるしかない。

    • コード改善にGPUが必要だという話は大したことではない。
      まもなく生成AIは超高解像度、さらにはHDRや120フレームの映画生成にも使われるようになるだろう。
      こうした作業は1分あたり100〜1000ドルかかり、膨大なGPUを必要とする。
      米軍もすでに戦場可視化向けの生成AIを計画しており、これは高解像度映像よりさらに高密度な計算を必要とする。

    • AIがコードベースを「改善」できるというのは興味深い。
      現実に改善までしているのは見たことがないので、実際に見てみないと信じられないだろう。

    • アルゴリズムや手法の改善によって、旧式ハードウェアも依然として役立つ可能性がある。

    • 「一晩コードベースについて考えてくれ…」という想像は、根本的に前提が間違っている。
      現在のLLMは独立して実質的な問題を自力で解決できない。
      多くの人はいつかそうなると期待しているが、私は今がLLM性能の限界だと見る側だ。
      最新のAIバブルは、技術Sカーブの初期段階を過大解釈した結果だ。
      今日の時点では十分ではない。

  • 過去のバブルの歴史は多少参考にはなるが、それほど有意義ではない。
    ドットコムバブル、鉄道バブルなど、毎回状況は違う。
    本質は事業性とROI(投資対効果)だ。
    資金の流れが健全でも、経済的リターンが史上最高レベルでなければ、結局は崩壊の危機にある。
    皆が金の卵を産むガチョウを追っている状況だ。

    • Bezosが10GW超のデータセンターを宇宙に建てる計画に言及したことから、これはROI(収益率)より未来の権力構造、つまり超富裕層がもはや労働力を必要としない世界の構築が目標なのではないかと思わされる。
      関連HN comment
      Bezosの宇宙データセンター言及記事

    • 過去のメカニズムにばかりこだわると、未来の可能性空間を過度に狭めてしまうと思う。
      ドットコムバブルも数多くの「あり得た経路」の一つとして進んだにすぎないからだ。
      同じ見方をすると、次のバブルがどのように実現するかも見落としかねない。

    • LucentとNvidia、Microsoft、OpenAI、Googleの間の会計処理の違いは、実は「より巧妙な嘘と実態以上に誇張する技術」が発達しただけではないかという懸念がある。
      バブルがはじけて初めて本当の数字が見えてくる。

    • 今回は法定通貨と政府の後ろ盾まであるので、過去とはまた違う。

  • ドットコムとテレコム崩壊の真っただ中にいたが、特にテレコムの方がはるかに深刻だった。
    光ファイバーは錆びないが、過剰敷設は凄まじく、10年後にはDWDM技術のおかげで8本のうち実際に使うのは2本だけという状態だった(波長は以前よりはるかに多様に使えるようになった)。
    GPUの10年後の中古価値はいくらになるのか、過剰投資されたGPUにも「DWDMのような解決策」が現れるのかが気になる。
    今は本当に非常に興味深い時代を生きている。

  • Nvidiaの最大の問題は、その売上が永続的ではないのに市場がそれをリカーリング収益のように評価しており、実際には1〜2年程度しか続かないCAPEX投資だという点だ。
    この構造がずっと続くことはないと単純に思う。

    • NVDAの株価は極端に割高というわけではなく、EPSの25倍にすぎない。
      売上成長は速く、史上最も重要な技術転換が目前にある状況だ。
      市場もすでに成長鈍化を株価にある程度織り込んでいる。

    • コロナ期に注目されたZoomやPelotonのような企業も、同じように未来がずっと続くと市場が仮定していた。
      市場構造は常にこうしたパターンを繰り返しており、最近では3Dプリンティングや代替肉も同様だった。
      OpenAIへの投資は、CAPEX鈍化に対するヘッジと解釈できる。

    • Nvidiaは発表さえすればグラフィックカードがすぐ売り切れる。
      マージンはとてつもなく高いが、それでもなお需要を満たしきれていない。

    • 結局これは単純な経済の論理だ。
      需要が一度でも崩れれば中古GPUがあふれ、新品を買う必要はなくなる。
      その時になれば、Nvidiaが今の売上を維持するのは不可能になるだろう。

    • TSLAも同じだ。
      株式市場は実質的に富裕層のための銀行で、融資と信用で包み直されている。
      実態はバブルだが、気にするのは富裕層くらいのものだ。
      私たちのような一般人はただの小口投資家にすぎない。

  • 「テレコム中のテレコム」で働いていたとき、私たちはモバイルデータ需要のおかげでダークファイバー(未使用光ファイバー)を15年も経ってから(2015年に)ようやく点灯した。
    過剰敷設の規模は本当に桁外れだった。
    光ケーブルは常に有用だったが、GPUがそこまで長く使われるかは疑わしい。
    個人的な経験から話している。

    • 新しい光ファイバーはそれほどエネルギー効率が向上しなかった。
      ただし、地面を掘るバックホウの効率もまったく変わっていない。

    • 「これらのカードは長く使えるのか?」という問いに対して、本文の例ではストレスが大きいため寿命は1〜2年かもしれないとしている。

    • 2005年当時、長距離通話料金のおかげでテレコムは現金を生むドル箱で、機械式交換機まで減価償却済みなら金を刷っているようなものだった(規制が収益を保証していた)。
      しかしその構造もそれほど長くは続かず、多くの地域で「非規制収益」を狙ってマネージドサービス(例: DataDogのようなソリューション)へ拡大しようとしていた。
      事業の本質として、非合理的な楽観はいつでも企業を倒し得る。

    • チップ自体の寿命は長くないだろうが、その中に投入されたR&Dは依然として価値がある。
      問題は、その価値をどれだけ回収できるかだ。

    • ハイパースケーラー支援のために建設中の高密度データセンターは、実質的にダークファイバーの過剰敷設と似ていると思う。
      2015年に光を入れたとき、1998年に買ったラインカードをそのまま使っていたわけではないだろう。

  • 根本的には、AGI(汎用人工知能)達成の不確実性が最大の論点だと思う。
    現在のトップライン投資の90%は、その2〜5年以内の達成を前提に集中している。
    それが十分な速さで来なければ、投資家の関心が急速にしぼむリスクがある。
    ベンチマークの伸びで興味をつなぎ止めているが、6〜12か月後には新しいマイルストーンも底を打つと予想する。
    本当の次の段階では、ソフトウェア開発、がん研究、ロボティクスなどで実際の成果を示さなければならない。
    今の構造では難しいと思う。

    • AGIはまだ遠いと思う。
      最大の機会は、法務や医療のように知識ベースが膨大で、人材が大学院まで行って習得するような領域だと思う。
      コーディングは特にLLM活用度が高まるだろう。
      問題は、既存の厄介なコードのリファクタリングなど積み残し作業が終わった後は、新規コード生成だけでは今のようなハードウェア需要バブルを絶対に維持できない点だ。

    • ハイパースケーラーもAI投資(CAPEX)に営業キャッシュフローの半分も使っていない。
      本気でAGI達成に賭けている水準なら、規模ははるかに大きいはずだ。

    • 「今の君の懐疑も、5年前の『考える機械は不可能だ』という主張と同じくらい根拠のない懐疑かもしれない。今のLLMもすでに登場している」

    • なぜみんなが低評価をつけるのかわからない。
      AI研究者と話してみれば、かなり現実的な期待値を持っている。
      だがビジネス側の、技術を知らない人ほど過剰な期待を抱いている。
      「月20ドルでChatGPTが仕事を全部やってくれる」といった計算で人員を減らし、予算や計画、採用まで既に調整している状況だ。
      1年後には案の定うまくいかず、AIに対する態度はすぐ逆方向に振れるだろう(怒り、回避、新製品への不信など)。
      失敗が積み重なれば成長率は鈍り、そうなれば投資家不安、株価急落、バリュエーション低下も一緒に来るだろう。

  • 私が理解できないのは、「学習」用GPU需要が今のように高成長を続けるという楽観論だ。
    推論(inference)需要は理解できるが、すでに優れた無料モデルが多く、Apple M4やAMD Max APUのような民生ハードウェアでもよく動く。
    この状況で追加のGPU投資需要が本当にまだそんなに残っているのか疑問だ。

    • Reinforcement Learning(強化学習)が新たなGPU戦場になるだろうと思う。
      例: o1, o3, GPT-5, Sonnet 3.7, 4, 4.5 などの変化。
      皆がB200で推論できるようになればモデルが再び大きくなる可能性もあるが、現時点ではRL訓練予算でのGPU飢餓が最も深刻だ。

    • それでも究極的な目標は、GPUをより多く回してAGIに一歩近づくための無限競争なのではないか、という主張もある。

    • 継続学習(Continuous Learning)構造が次のGPU需要促進要因になるだろうと推測する。

    • 推論(inference)は結局、クラウドで共有ベースにするのがコスト的に最も安いだろう。
      ほとんどのB2B事例はAWSなどデータセンター基盤へ移っていくと思う。
      特殊なケース(CERNやApple Siri)ではFPGAや低電力ASICなどの専用ハードウェアを使うだろうが、それ以外ではますます「クラウドベース」が標準になる。

  • ドットコムバブルの時は広告が循環効果を生んでいた。
    VCがスタートアップに資金を入れ、スタートアップはその金をYahooなどの広告に使った。
    Yahooの売上が急増して株価が上がり、それがインターネットで金を稼げるというシグナルになって、他のスタートアップのIPO市場を拡大した。
    金が回るほど、広告→収益→時価総額→さらなるVC投資→さらなる広告、という循環が続いた。

  • 参考資料14番ではOpenAIがNvidiaのGPUを一括購入ではなくレンタル(リース)で使うとされているが、
    Nvidiaが「ここに投資した」と表現するのは理解しにくい。
    リースなら単にレンタル料を受け取るだけなのに、なぜ投資と呼ぶのか。Nvidiaは何に「投資」したのだろうか?

    • Nvidiaは最初にGPUを生産・供給するときに資金を先に投じなければならず、もしこの資産配分が適切に回収できなければ(例: 顧客が破産した場合)リスクを負うことになる。
      このリスクを引き受ける代わりに追加の報酬を期待しており、その構造自体が投資の性格を帯びている。

    • 会計の専門家ではないが、リースが終わればNvidiaの手元には減価償却された低価値資産しか残らないと思う。
      自動車リースと違ってGPUの中古市場はそれほど大きくないだろう。
      つまりNvidiaは全額前払いを受けずにGPUを「分割払い」で提供しているようなものだ。
      リース料総額が原価に見合うのか気になる。