3 ポイント 投稿者 GN⁺ 2025-09-23 | 1件のコメント | WhatsAppで共有
  • OpenAIは、NVIDIAシステムを基盤に最低10GW規模のAIデータセンターを構築し、次世代AIインフラを整備する計画を発表
  • この過程でNVIDIAは、ギガワット単位の展開ごとに段階的に最大1,000億ドルの投資を約束
  • 最初の1GW規模システムは、2026年後半のVera Rubinプラットフォームで稼働開始予定
  • 今回の協業には、OpenAIとNVIDIAによるハードウェア・ソフトウェアの共同最適化が含まれ、Microsoft・Oracle・SoftBank・Stargateの既存パートナーとの協業も補完
  • OpenAIが週間7億人超のユーザーとグローバルなビジネス導入を基盤に、AGIに向けて前進するうえで重要な足がかりとなる見込み

パートナーシップ概要

  • OpenAIとNVIDIAは、最低10GW規模のシステムを配備する戦略的パートナーシップに関する意向書(LOI)を発表
    • OpenAIの次世代モデルの学習および実行に必要なインフラ確保が目的
    • スーパーインテリジェンスに向けた段階的前進の一環として紹介
  • NVIDIAは、データセンターと電力拡充を含む展開プロセスに合わせ、最大1,000億ドルを投資する計画を明らかにした
  • 第1段階は、2026年後半にNVIDIA Vera Rubinプラットフォームでオンライン化される予定

主な発言

  • Jensen Huang (NVIDIA CEO)
    • OpenAIとの10年にわたる協力の歴史に触れ、ChatGPTのブレークスルーに至るまでの歩みを強調
    • 「10GWインフラの配備は、知能の次世代時代を切り開く飛躍だ」と発言
  • Sam Altman (OpenAI CEO)
    • 「すべてはコンピュートから始まる」と述べ、今後の経済の基盤になると強調
    • NVIDIAとともに、新たなAIのブレークスルーと大規模な人類・ビジネス活用を推進すると説明
  • Greg Brockman (OpenAI President)
    • NVIDIAプラットフォームによって数億人が利用するAIを作ってきたと説明
    • 10GW配備により、知能の限界拡張と技術恩恵の拡大を期待すると発表

協力範囲

  • NVIDIAは、OpenAIの戦略的コンピュートおよびネットワーキングパートナーに指定
  • 両社は、OpenAIのモデル・インフラソフトウェアとNVIDIAのハードウェア・ソフトウェアを共同最適化する方針
  • Microsoft、Oracle、SoftBank、Stargateなど既存の協業ネットワークとのシナジー拡大も予定

OpenAIの現状と意義

  • OpenAIは現在、週間アクティブユーザー7億人超を記録し、グローバル企業・中小企業・開発者の間で広く採用されている
  • 今回のパートナーシップは、人類全体に貢献するAGI構築ミッションを加速させる基盤と評価される
  • 今後数週間以内に、詳細なパートナーシップ条件を確定する計画

1件のコメント

 
GN⁺ 2025-09-23
Hacker Newsの意見
  • ギガワット単位で表現しているのが非常に興味深い。ここ3年、データセンターによるAI成長のために家庭や小規模事業者の電気料金が急騰しているという論争があった。もし10GWがシカゴとニューヨークを合わせた使用量に等しいなら、アメリカの電力網とインフラの惨状を考えると、この電力をどこから調達するのか真剣に議論すべきだ。すでにデータセンターへ安価な電力を供給するために家庭へコストが転嫁されており、この不平等も問題だ。5年の間にアメリカの家庭用電気料金が13セントから19セントへ46%上昇したのは、決して公平でも持続可能でもない。疑問なのは、この10GWは一体どこから供給され、誰がそのコストを負担するのかということ。参考までに、データセンターの規模を語るときはよく電力(ワット)基準で話すが、今回は純粋なデータセンター所有者や運営会社ではなく、NVIDIAのようなコンピュート供給者の立場から出てきた数字だ。それだけ電力消費、送電網拡張、コスト負担が中心的な論点になっている
    • データセンター業界で働いている。データセンターの規模は電力消費量(例: 200MW)で語るのが標準だ。コンピュート設備は5年ごとにアップグレードできるが、電力要求量はほぼ固定される。結局のところ、AIはエネルギーを精製する行為だということを、この単位はよく示している
    • 「公平でも持続可能でもない」という主張について言えば、イタリアと比べるとアメリカの電気料金は半分だ。世界最高レベルの富裕国であるアメリカなら、乗り越えられない問題ではないと思う
    • データセンターのインフラは常にワット基準で割り当てる。この数字からIT負荷、冷却などあらゆる計算が派生する
    • 公益事業者は料金を引き上げる際、必ず規制当局に根拠を示さなければならない。コスト増加の主因は再生可能エネルギーへの移行だ。大型データセンターに必要コストを直接負担させるのは難しくない。ただし電力そのものを自前で生産するのは、より複雑な問題だ。以前はコロンビア川の水力発電から安価に電力を引くこともできたが、今では住宅用途と直接競合し始めている。それでも発電単価は請求額全体の中ではごく小さな部分だ
    • 年8%の上昇は大きいが、2022年に世界的な燃料ショックがあったことを考慮すべきだ。たとえばオーストラリアではその年に電気料金が2倍になった。平均的には長期で年6%程度の上昇率で、賃金上昇率4%より少し高い程度だ。電気料金は依然として家計所得に占める割合が小さい。賃金上昇がその影響の大半を吸収する。もちろん低所得層には打撃が大きいかもしれないが、多くの人にとっては大きな波及ではない
  • 「landmark strategic partnership」に関するプレスリリースの表現はどれも曖昧すぎて、企業PRの文句にしか見えない。実際には「いつか何かすごいことをやる」という程度の発表に思える
    • Nvidiaの株価は今日$6上がったので、発表効果は十分にあったわけだ。実質的には投資家に「すごいことをやるから、もっと資金をください」と請求したようなもので、多くの投資家がそれに反応したようだ
  • NVIDIAシステムのギガワット規模というのが具体的に何を意味するのか気になる。自分なりに推定し、さらにGPTの助けも借りて計算してみたところ、ほぼ1,000万台近いかもしれない。本当にとんでもない規模に見える
    • この数字は確かに桁外れに大きい。システムレベルではH100 1台が1〜2kW程度なので、2kW基準なら約500万台になる。たとえばNVL72ラックは72チップで120kW、冷却込みで合計すると1台あたり2kWという計算だ
    • 「数百万台規模」と言って差し支えない。実際の台数はインフラ環境によって異なり、現実にはアクセラレータは全消費電力の一部しか占めないが、それでも規模としては明らかに数百万台だ
    • コメントを見る前にざっくり計算してみたが、GPU 1台あたり600Wとすると 10,000,000,000/600=1,666万台になる。いろいろな要因を考えると実際とはかなり違うだろうが、おおまかな出発点にはなる。オーバーヘッド、発熱、変換効率などは含めていない
    • GPU 1,000台あたり3MWで計算すると、10GWはおよそ333万台だ
    • これらすべてのGPUをつなぐケーブルの種類や長さがどれほどになるのかも気になる。単に金属ラックに差し込むだけかと思っていたが、実際のデータセンター写真を見ると青いケーブルが無数につながっている
  • LLM(大規模言語モデル)技術はすでにピークを過ぎたように感じる。今ではまるでスペースヒーターの広告のように、何か大きな進歩があるふりをしているが、実際には技術は停滞している。より速い馬を作っているだけだ。市場はこうした状況をもっと合理的に抑制すべきだった
    • AIバブルがいつか spectacular に弾ける可能性は確かにある。しかし今がLLMの頂点だと言うのは、99〜01年のインターネットも頂点だったと言うようなものだ。実際にはその後、スマートフォンなど多くの革新が現れたし、テキストベースのLLMもまだ停滞していない。AIはテキストだけでなく、自動運転車のような実世界AIも指数関数的に進歩している
    • ドットコムバブルの当時も、激しい過熱のあとに大きな crash があり、その時生き残ったAmazonのような企業は巨人になった。今回のAIブームでも、そうした意味のある成果が残ることを願う
    • 近いうちに市場調整が来ると思う。ただ、ドットコム崩壊後もインターネットに価値があったように、長期的には価値が残ると期待している
    • もうあらゆるポジティブな期待が価格に織り込まれた時点だという意味で、「行き過ぎた」と見る立場だ
  • 水は多くの地域で不足している必須資源だ。データセンターが干ばつ時に水を吸い上げる事例が何度もあった。米国EPA(環境保護庁)がこうしたプロジェクトの水使用管理について、まだ声を上げられるのか気になる
    • 中西部の地下水はエタノール生産に、カリフォルニアではアーモンド栽培に、もっと多く使われている。この2つの事業のほうが水資源への影響ははるかに大きく、データセンターより実際の有用性も低い。本当に深刻な問題にもっと焦点を当ててほしい
    • データセンターの水問題は、メディアが言うほど重要な問題ではない。一部地域では局所的な問題があるが、むしろ電力のほうが核心的だ
    • データセンターの水消費というのは、実際には循環式冷却で大きく消耗するのではなく、単にポンプで回している程度なのではないかと思う
  • こうした巨大設備の電力需要については誰もあまり語らない。ニュージャージーで払っている電気料金も、PSEG基準で50%以上上がった。データセンターで需要が急増したと言いながら、データセンターに高い料金体系を適用していないのが現実だ 関連記事
    • こうした料金引き上げは、ニュージャージーの消費者軽視の政治現実を示す例だ。データセンターは結局、競争力のある電気料金の地域に集まるだろう
    • これを容認したのは州政府だ。簡単に拒否できたのに許可したからだ
  • Googleが年間15TWh使用(約1.7GW)なのに対し、OpenAIとNVIDIAの新計画はその5.8倍(5.8 Googles)もの電力を消費する見込みだ。この規模なら、現在のGPUと比べて超低消費電力のAI演算チップに巨大な機会が生まれるはずだ。すでにいくつもの技術的試みがあるので期待している
    • 超低消費電力AIチップの具体例が気になる。実際にどれくらいの電力削減が見込めるのか、数値があるといい
    • この単一データセンターだけでも主要な暗号資産に対する51%攻撃を実行できるほどの計算能力が集まるかもしれない。もしAI市場がバブル崩壊でしぼんだ場合、興味深い保険になる可能性もある
  • Ed Zitronの論点整理記事を静かに待っている
    • 経営者がアウトプットで成果を測れないと、インプットだけで測るようになり、効率が落ちる。従業員にオフィス復帰を求めるのもその延長線上だ。今やOpenAIとNVIDIAでは、実質的なAI成果より投入ギガワットのほうが重要な成功指標になってしまった
    • The Ed Zitron本人の投稿
    • Ed Zitronの悲観的な見通しひとつで大きな損失を出した人も多かった
  • Monaco(740エーカー)サイズの土地がこのデータセンターに必要だという想定がある。基準は80kW/rackだ
    • Monacoは非常に小さく、ベルリン市内のテンペルホーフ公園に収まる程度だ
    • 実質的にはBYDの工場ひとつ分の規模と説明できる
    • Monacoは2平方キロメートルだ。もしラックあたり1平方メートルとすると、実際に必要な面積は12ヘクタール、つまりサッカー場17面ほどになる(単層設置前提)。データセンターを垂直に積み上げることもできそうだ。Monacoの大きさを調べたのは自分だけなのか気になる MonacoのWikipedia 直接面積計算
    • アメリカ全土にはMonacoを480万個収められる
  • 1960年代の米海軍潜水艦の原子炉は78MWだったので、10GWは原子炉搭載潜水艦128隻分に相当する
    • より分かりやすく言えば、アメリカ全体の平均電力消費の2%、人口1,800万人のオランダ全国に近い規模だ
    • 原発1基は通常最大2GW、洋上風力発電所も1.5GWが限界に近い。大容量の525kV DC送電システムでも、ケーブル1本あたり2GW送るのが最大値だ。10GWの追加負荷だけでも電力網に非常に大きな衝撃があり、大規模な設備投資が必要になる。大企業に525kVケーブルを依頼しても、受け取れるのは2030年以降になるだろう
    • 一方で、人間の脳が20W程度を消費するとすれば、10GWは5億人分の脳に相当する。ハエのような昆虫でさえ極めて小さなエネルギーで情報処理していることを考えると、LLMなど現在のAIは完全に非効率な方向なのかもしれない。いつかこれを覆す効率的な方式が現れれば、今の設備は価値を失うかもしれない、笑
    • 非常に安全な1GW級のРБМК原子炉10基で10GWだ(爆発の危険はない)
    • 発電所1基でおよそ1GWであり、原発は建設が遅いので、結局は天然ガス発電が最有力だろう