- 世界的なAI企業のデータセンター投資の急増について、IBMのCEOアービンド・クリシュナは収益性に対して強い疑問を提起した
- 彼は現在の費用基準で1ギガワットのデータセンター構築に約800億ドルが必要で、主要企業は20〜30ギガワットを進めていると述べた
- 世界的に約100ギガワット規模のAIインフラ投資が進行しており、総額は8兆ドルに達すると算定した
- クリシュナはAIチップの5年減価償却と巨額な資本コストを踏まえると、年間8,000億ドルの利益が必要だが、現実的には不可能だと評価した
- 彼は現在の技術では**AGI(汎用人工知能)**達成確率が0〜1%にすぎず、LLMだけでは限界があると強調した
AIデータセンター投資の急増と収益性論争
- 主要なAI企業がAGI競争のなかでデータセンターに数十億ドルを投入している
- Metaは最近の決算発表で「capacity(容量)」と「AIインフラ」を繰り返し言及した
- Googleは長期的に宇宙ベースのデータセンター建設計画を発表した
- クリシュナは「このような投資が収益として戻る可能性はほぼない」と述べた
- 彼は「今日時点の計算」とし、将来のコストは不確実であることを前提とした
クリシュナのコスト計算と収益性分析
- 1ギガワットのデータセンター構築には約800億ドルが必要と説明した
- 一社が20〜30ギガワットを進める場合、**1.5兆ドルの資本支出(CAPEX)**が発生する
- 世界的に約100ギガワット規模の投資が進行しており、総額は8兆ドル規模
- この場合、金利だけをまかなうためでも年間8,000億ドルの利益が必要
- 彼は「そのような利益を生み出す方法はない」と断言した
減価償却と投資リスク
- AIチップの5年減価償却を主要なリスクとして指摘
- 「5年後にはチップを捨てて、再び入れ替える必要がある」と述べた
- 投資家のマイケル・バーリーもNvidiaの減価償却問題を指摘し、AI株の下落を引き起こした
- クリシュナは、この減価償却構造が**ROI(投資収益率)**をさらに悪化させると評価した
AGI達成可能性への懐疑
- クリシュナは現在の技術では**AGI達成確率を0〜1%**として提示した
- 「追加的な技術的ブレークスルーがない限り不可能」と述べた
- 彼はLLM(大規模言語モデル)だけでは限界があり、「ハードナレッジ」との統合が必要だと提案した
- OpenAIのイーロン・サッツケバーも「スケーリングの時代は終わった」と述べ、研究中心へのシフトを強調した
業界内の他の懐疑的見方
- マーク・ベニオフはAGI推進を「催眠術のようだ」と表現し、懐疑的な姿勢を示した
- アンドリュー・ンはAGIが「過大評価だ」と述べた
- Mistral CEO Arthur MenschはAGIを「マーケティング戦略」と規定した
IBM CEOの最終評価
- クリシュナは現在のAIツールが企業生産性で数兆ドル規模の価値を生み出すと評価した
- ただし、AGI達成には現在のLLM経路を超える技術進展が必要だと強調した
- 「それでも可能性は『たぶん(maybe)』レベル」と述べ、慎重な立場を維持した
7件のコメント
現在のAIデータセンター投資の規模や計画が過剰だという点には共感しますが、計画はあくまで計画にすぎず、技術の発展速度や方向性を誰も予測できない状況で断定的な判断を下すのは危険であり、CEOとして良い判断ではないように思います。
(あるインタビューで)SKTのチェ・テウォン会長に、AIはバブルだと思うかという質問と、その答えが印象的だった。
率直ですね
投じられる資金を見ると、効率化できるあらゆる分野に効率化が入っていくように思います。
[電力コスト、LLMのパラメータ効率、キャッシングなど] こうしたものが最終的には、予想より少ない資金で済むようにするのではないかと思います。うーん……AIに対する悲観的なスタンス(~~ 絶対に無理だ)は、いつも覆されるんですよね。
LLMを見ているだけでも、私は奇跡のように感じます。
数字の上ではそうですが…
LLMやデータセンター以外に、アメリカ経済を牽引できるものもないように思います。
自分の考えとほとんど同じだな……。うちはまあ、メモリをたくさん売れればそれで十分だけど
Hacker Newsのコメント
1958年にIBMがxerography技術を逃し、その10年後にミニコンピュータを軽視し、さらに10年後にApple IIを過小評価したというスティーブ・ジョブズの言葉を引用している。
今IBMのCEOが「AIデータセンター投資は収益にならない」と語っているのを見ると、IBMは今でも未来をうまく読めていないように思える。
関連資料: Steve Jobs 1983 Keynote, Xeroxの発明史
その後のIBM PC(5150)は汎用部品を使って価格を下げ、それが成功の鍵だった。
IBM 5100 Wiki
Apple IIも企業市場では影響は小さかった。しかもこれは50年前の話で、今の**AI投資収益率(ROI)**の議論とは別問題だ。
IBM CEOが「AIチップは5年経てば捨てる必要がある」と言ったが、それは断定的すぎる前提に思える。
ハードウェアが5年後も安定しているなら、旧型モデルを低価格で回して収益を出す余地はある。
Burryのツイート
結局、5年サイクルは投資判断に大きく影響するだろう。
AIデータセンター投資がすべて実現するのは難しいと思う。電力需要だけでも限界がある。
Gartnerは2025年の世界全体のAI支出が1.5兆ドルに達すると予測している。
世界GDP(2024年時点で111兆ドル)に対して、それほど過大とは思えない。
AI投資の寿命は6〜8年程度と推定され、過度に悲観的でなければ妥当な規模だ。
Gartnerレポート
世界銀行のGDPデータ
LLMサービスが基本的に**短い応答モード(200トークン以下)**を使い、プロンプトキャッシュと小型モデルへのルーティングを適用すれば、
エネルギー使用量を70%以上削減できると思う。
ChatGPT規模では年間電気代が5,000万〜1億ドルだが、この方法なら500万〜1,000万ドルにまで下がる。
EUやカリフォルニアがこうしたモードを義務化すれば、データセンター経済にも大きな変化が生じるだろう。
10年前、IBMは「Watson」を前面に出して「Cognitive Finance」のような広告を大量に打っていたが、今では誰も話題にしない。
もしかすると、今のAIブームを他社が主導していることが気に入らないのではないかと思う。
技術デモは見事だったが、実際の収益モデルがなかった。
自分でPoCを作って、うまくいかないことを証明しなければならなかった記憶がある。
それでも市場での立ち位置を考えれば、完全に無視できる意見ではない。
IBM CEOの言うように、AIが利益を生みにくいという点には一理ある。
NVIDIA基準では、1GW級の電力で年間6.29×10^16トークンを生成できるが、
インターネット全体のテキストが10^14トークン規模だとすれば、データそのものが限界に突き当たる可能性がある。
今のAI議論には3つの恐怖要因がある。
IBMは特別な洞察があるというより、こうした恐怖の一部を反映しているにすぎない。
AIインフラ投資はドットコムバブル期の光ファイバー過剰投資に似ていると思う。
長期的には価値があっても、個々の企業は大きく失敗しうる。
GPUの数量より活用率と収益モデルのほうが重要だ。
IBMはコンシューマーハードウェア、OS、クラウドのすべてで機会を逃してきた企業だ。
CEOの発言が正しい可能性はあるが、未来予測の基準としては不適切だ。