8 ポイント 投稿者 GN⁺ 2025-12-03 | 7件のコメント | WhatsAppで共有
  • 世界的なAI企業のデータセンター投資の急増について、IBMのCEOアービンド・クリシュナは収益性に対して強い疑問を提起した
  • 彼は現在の費用基準で1ギガワットのデータセンター構築に約800億ドルが必要で、主要企業は20〜30ギガワットを進めていると述べた
  • 世界的に約100ギガワット規模のAIインフラ投資が進行しており、総額は8兆ドルに達すると算定した
  • クリシュナはAIチップの5年減価償却と巨額な資本コストを踏まえると、年間8,000億ドルの利益が必要だが、現実的には不可能だと評価した
  • 彼は現在の技術では**AGI(汎用人工知能)**達成確率が0〜1%にすぎず、LLMだけでは限界があると強調した

AIデータセンター投資の急増と収益性論争

  • 主要なAI企業がAGI競争のなかでデータセンターに数十億ドルを投入している
    • Metaは最近の決算発表で「capacity(容量)」と「AIインフラ」を繰り返し言及した
    • Googleは長期的に宇宙ベースのデータセンター建設計画を発表した
  • クリシュナは「このような投資が収益として戻る可能性はほぼない」と述べた
    • 彼は「今日時点の計算」とし、将来のコストは不確実であることを前提とした

クリシュナのコスト計算と収益性分析

  • 1ギガワットのデータセンター構築には約800億ドルが必要と説明した
    • 一社が20〜30ギガワットを進める場合、**1.5兆ドルの資本支出(CAPEX)**が発生する
  • 世界的に約100ギガワット規模の投資が進行しており、総額は8兆ドル規模
    • この場合、金利だけをまかなうためでも年間8,000億ドルの利益が必要
  • 彼は「そのような利益を生み出す方法はない」と断言した

減価償却と投資リスク

  • AIチップの5年減価償却を主要なリスクとして指摘
    • 「5年後にはチップを捨てて、再び入れ替える必要がある」と述べた
  • 投資家のマイケル・バーリーもNvidiaの減価償却問題を指摘し、AI株の下落を引き起こした
  • クリシュナは、この減価償却構造が**ROI(投資収益率)**をさらに悪化させると評価した

AGI達成可能性への懐疑

  • クリシュナは現在の技術では**AGI達成確率を0〜1%**として提示した
    • 「追加的な技術的ブレークスルーがない限り不可能」と述べた
  • 彼はLLM(大規模言語モデル)だけでは限界があり、「ハードナレッジ」との統合が必要だと提案した
  • OpenAIのイーロン・サッツケバーも「スケーリングの時代は終わった」と述べ、研究中心へのシフトを強調した

業界内の他の懐疑的見方

  • マーク・ベニオフはAGI推進を「催眠術のようだ」と表現し、懐疑的な姿勢を示した
  • アンドリュー・ンはAGIが「過大評価だ」と述べた
  • Mistral CEO Arthur MenschはAGIを「マーケティング戦略」と規定した

IBM CEOの最終評価

  • クリシュナは現在のAIツールが企業生産性で数兆ドル規模の価値を生み出すと評価した
  • ただし、AGI達成には現在のLLM経路を超える技術進展が必要だと強調した
  • 「それでも可能性は『たぶん(maybe)』レベル」と述べ、慎重な立場を維持した

7件のコメント

 
un0haep337 2025-12-04

現在のAIデータセンター投資の規模や計画が過剰だという点には共感しますが、計画はあくまで計画にすぎず、技術の発展速度や方向性を誰も予測できない状況で断定的な判断を下すのは危険であり、CEOとして良い判断ではないように思います。

 
halfenif 2025-12-04

(あるインタビューで)SKTのチェ・テウォン会長に、AIはバブルだと思うかという質問と、その答えが印象的だった。

私の記憶しているニュアンスでは、「たとえそれがバブルだとしても、みんながやっているのに、やらないわけにはいかない。」

 
aer0700 2025-12-06

率直ですね

 
mhj5730 2025-12-04

投じられる資金を見ると、効率化できるあらゆる分野に効率化が入っていくように思います。
[電力コスト、LLMのパラメータ効率、キャッシングなど] こうしたものが最終的には、予想より少ない資金で済むようにするのではないかと思います。うーん……AIに対する悲観的なスタンス(~~ 絶対に無理だ)は、いつも覆されるんですよね。

LLMを見ているだけでも、私は奇跡のように感じます。

 
bus710 2025-12-04

数字の上ではそうですが…
LLMやデータセンター以外に、アメリカ経済を牽引できるものもないように思います。

 
love7peace 2025-12-03

自分の考えとほとんど同じだな……。うちはまあ、メモリをたくさん売れればそれで十分だけど

 
GN⁺ 2025-12-03
Hacker Newsのコメント
  • 1958年にIBMがxerography技術を逃し、その10年後にミニコンピュータを軽視し、さらに10年後にApple IIを過小評価したというスティーブ・ジョブズの言葉を引用している。
    今IBMのCEOが「AIデータセンター投資は収益にならない」と語っているのを見ると、IBMは今でも未来をうまく読めていないように思える。
    関連資料: Steve Jobs 1983 Keynote, Xeroxの発明史

    • IBMは1975年にすでにIBM 5100というパーソナルコンピュータを発売していた。問題は価格が高すぎたことだった。
      その後のIBM PC(5150)は汎用部品を使って価格を下げ、それが成功の鍵だった。
      IBM 5100 Wiki
    • こうした過去の事例が、今のCEOの判断と何の関係があるのか分からない。
    • メッセージよりメッセンジャーに注目するのは無意味だと思う。Xeroxはすでに過去の存在だが、IBMは今なお3,000億ドル規模の企業だ。
      Apple IIも企業市場では影響は小さかった。しかもこれは50年前の話で、今の**AI投資収益率(ROI)**の議論とは別問題だ。
    • DECは消え、XeroxはIBM時価総額の1/1000の規模だ。IBMのPCアーキテクチャの開放性は、むしろ市場支配につながった要因だった。
  • IBM CEOが「AIチップは5年経てば捨てる必要がある」と言ったが、それは断定的すぎる前提に思える。
    ハードウェアが5年後も安定しているなら、旧型モデルを低価格で回して収益を出す余地はある。

    • Michael Burryはむしろ5年は寛大すぎる減価償却期間だと主張している。実際には2〜3年が妥当だという。
      Burryのツイート
    • サーバーハードウェアの標準的な減価償却期間は5年なので、GPUだけの問題ではない。
    • 旧型サーバーも十分動くが、電力効率のため最新技術に比べて経済性では劣る。
    • 暗号資産マイニングの事例のように、GPU需要はASICの登場で更新サイクルが早まる可能性がある。
      結局、5年サイクルは投資判断に大きく影響するだろう。
    • 競合がより効率的なチップを使えば、結局は旧型ハードウェアを捨ててアップグレードせざるを得ない。
  • AIデータセンター投資がすべて実現するのは難しいと思う。電力需要だけでも限界がある。

    • 西側諸国は電力予備率が低いが、中国は100%の予備率を維持しており、需要急増にも対応できる。
    • とはいえ、CEOたちもすでに十分調査しているはずで、それ以上によく分かっていると言うのは難しい。
  • Gartnerは2025年の世界全体のAI支出が1.5兆ドルに達すると予測している。
    世界GDP(2024年時点で111兆ドル)に対して、それほど過大とは思えない。
    AI投資の寿命は6〜8年程度と推定され、過度に悲観的でなければ妥当な規模だ。
    Gartnerレポート
    世界銀行のGDPデータ

    • ただし、その追加GDPの利益を投資家が実際に得られるかは別問題だ。
    • GPUは6〜8年よりずっと早く陳腐化するため、投資回収期間は短いかもしれない。
  • LLMサービスが基本的に**短い応答モード(200トークン以下)**を使い、プロンプトキャッシュと小型モデルへのルーティングを適用すれば、
    エネルギー使用量を70%以上削減できると思う。
    ChatGPT規模では年間電気代が5,000万〜1億ドルだが、この方法なら500万〜1,000万ドルにまで下がる。
    EUやカリフォルニアがこうしたモードを義務化すれば、データセンター経済にも大きな変化が生じるだろう。

    • それなら、なぜこうした90%削減の最適化がまだ実装されていないのか不思議だ。
  • 10年前、IBMは「Watson」を前面に出して「Cognitive Finance」のような広告を大量に打っていたが、今では誰も話題にしない。
    もしかすると、今のAIブームを他社が主導していることが気に入らないのではないかと思う。

    • IBMは過去にもAI、クラウドに早く参入したが、市場シェアを確保できなかった。
      技術デモは見事だったが、実際の収益モデルがなかった。
    • 外部コンサルタントたちがWatsonをあらゆる問題の解決策のように売り込んでいたが、実際には高価で役に立たなかった
      自分でPoCを作って、うまくいかないことを証明しなければならなかった記憶がある。
    • IBMがこうした失敗を経験しているからこそ、今はより懐疑的な見方をしているのかもしれない。
      それでも市場での立ち位置を考えれば、完全に無視できる意見ではない。
    • Watsonの失敗が、今のCEOの判断を無効にするわけではない。
    • もしかするとIBMは単に「10億ドル単位の投資ではROIが出ない」という現実的な判断をしているだけかもしれない。
  • IBM CEOの言うように、AIが利益を生みにくいという点には一理ある。
    NVIDIA基準では、1GW級の電力で年間6.29×10^16トークンを生成できるが、
    インターネット全体のテキストが10^14トークン規模だとすれば、データそのものが限界に突き当たる可能性がある。

    • ただ、その数値は小さく見積もりすぎている気がする。画像や動画データを含めれば、数桁以上の差が出るだろう。
    • 画像トークンを含めれば少なくとも5桁以上の差になると思う。
    • ただ、こうした計算がなぜ「AIは利益を出せない」という結論につながるのかはよく分からない。
  • 今のAI議論には3つの恐怖要因がある。

    1. バブルかもしれないという恐れ
    2. 本当の革命が来るかもしれないという恐れ
    3. その革命に乗り遅れることへの恐れ(FOMO)
      IBMは特別な洞察があるというより、こうした恐怖の一部を反映しているにすぎない。
  • AIインフラ投資はドットコムバブル期の光ファイバー過剰投資に似ていると思う。
    長期的には価値があっても、個々の企業は大きく失敗しうる。
    GPUの数量より活用率と収益モデルのほうが重要だ。

    • これに反対する立場として、似たテーマを扱ったブログ記事を紹介する。
    • ただし光ファイバーは長期的価値が明確だった一方、GPUはAI以外の用途が限られるため、より危険だ。
  • IBMはコンシューマーハードウェア、OS、クラウドのすべてで機会を逃してきた企業だ。
    CEOの発言が正しい可能性はあるが、未来予測の基準としては不適切だ。