6 ポイント 投稿者 GN⁺ 2025-05-22 | 2件のコメント | WhatsAppで共有
  • AIクエリ1件あたりのエネルギー使用量はわずかに見えるが、世界全体では数十億件のリクエストが積み重なり、電力網に実質的な影響を与える水準に達している
  • 主要なAI企業は数兆円規模のデータセンターおよび電力インフラ投資を加速しており、一部では原子力発電所の建設まで計画している
  • AIクエリのエネルギー消費量はモデルの規模と複雑さに応じて数百倍以上の差があり、非公開モデルの場合、正確な消費量はほとんど分かっていない
  • AIが使用する電力の大半は化石燃料ベースの電力網に依存しており、その結果、炭素排出強度は平均より48%高い
  • 今後AIの利用が継続的に拡大した場合、2028年には米国のデータセンター電力の半分以上がAIに使われる見通しである

Making the Model: AIモデル訓練の出発点

  • AIモデルは数か月にわたりデータセンターで数十GWhの電力を消費して訓練される
  • GPT-4の訓練だけでも5,000万ドル超、50GWhの電力が必要で、これはサンフランシスコ全体を3日間稼働させられる水準である
  • 推論(inference)がAI全体の電力使用の80~90% を占めており、GPUを中心としたデータセンターの役割が極めて重要である
  • NVIDIAのH100 GPUがAI推論処理の中心を担っており、数千基が接続されたクラスターの形で動作する

A Query: 1つの質問が消費するエネルギー

  • 同じAIモデルでも質問の種類や場所、時間帯によってエネルギー消費量と炭素排出量は大きく異なる
  • Llama 3.1 8Bモデルは平均114ジュール(J) を消費し、Llama 3.1 405Bは6,706ジュールを消費する
  • Stable Diffusion 3 Mediumで画像を1枚生成する際は2,282ジュール、高画質画像や動画では数十万~数百万ジュールを消費する
  • 動画生成は画像より700倍以上のエネルギーを使用し、今後AI動画生成が一般化すれば電力消費が急増する可能性がある

Fuel and Emissions: AIが使う電力の供給源

  • AIデータセンターは太陽光・風力のような断続的なエネルギーでは運用が難しく、平均してより炭素集約度の高い電力を使っている
  • 例: 2024年の米国全体の電力の60%が化石燃料、原子力が20%、再生可能エネルギーが残りの20%を占めた
  • カリフォルニア州とウェストバージニア州のように地域によって約2倍の炭素排出差が存在する
  • 今後、Meta、Google、Amazonなどは原子力発電所拡充に向けた共同投資を発表したが、完成までには数十年を要する

AI around the corner: 迫るAI大衆化とエネルギー急増

  • ChatGPTは現在世界で5番目に多くアクセスされるサイトで、1日10億件超のクエリが発生している
  • 推計によれば、GPTクエリ1件あたり1,080ジュールのエネルギーを消費し、年間1,090GWhは米国家庭10,400世帯を1年間動かせる電力に相当する
  • 動画・画像を含めると年間35GWh以上の追加となり、これはAIエージェント、音声モード、映像認識ベースのAIが本格化すればさらに増加すると見込まれる
  • AIが自ら作業を実行し、ユーザーデータでパーソナライズされる未来では、単一クエリ単位の予測だけではエネルギー需要を説明できない

The Future Ahead: 2028年までのエネルギー需要予測

  • 米国のAI向けデータセンターは2024年に76TWhを使用し、これは720万世帯規模に相当する
  • 2028年までに165~326TWhの使用が予想され、これは米国の全家庭の22%の電力使用量に匹敵する
  • これは3,000億マイルの走行時の炭素排出量と同等で、データセンターの電力使用比率は4.4% → 12%へ3倍増する見通しである
  • ソフトバンク、OpenAIなどは500兆ウォン規模のデータセンターおよび電力インフラ投資を進めており、世界各地でサッカー場規模のインフラを建設中である

Transparency Gap: 数値公開の欠如と市民負担

  • ほとんどのAI企業はモデル推論時のエネルギー消費量を公開しておらず、これは公共的な予測可能性の低下につながっている
  • 米国政府のエネルギー機関(EIA)もAIを独立した産業分野として扱っておらず、統計が不十分である
  • バージニア州の報告書によれば、データセンターのエネルギー費用により一般家庭の電気料金が月37.5ドル上昇する可能性がある
  • AIインフラのコストを市民が負担することになり得るため、これに関する社会的な議論が必要である

2件のコメント

 
crawler 2025-05-22

改めて、自社製TPUで動作するGoogle Geminiはすごいと感じるね……

 
GN⁺ 2025-05-22
Hacker Newsの意見
  • http://archive.today/mnHb8 のリンク共有

  • Meta、Amazon、Googleのようなテック企業が化石燃料問題への対応として原子力発電の活用目標を発表したという話に言及し、3社が2025年までに世界の原子力発電容量を3倍に増やすという誓約に参加したと説明しているが、この日付は昨日の記事基準ではややおかしく感じられる、実際の目標は2050年だと指摘、記事にはこのようなおかしな部分や「専門家」ソースの濫用があるものの、少なくとも誰かがこの問題を定量化しようと試みた点は前向きに評価

    • この記事で最も奇妙なのは、ビッグテック企業がこうしたデータの公開を拒んでいる事実だという指摘、専門家に推測させておいてはいけない、世界全体に影響する決定には社会が情報へアクセスできる必要がある

    • ああしたおかしな部分が単なる誤字なのか、それとも本当に変だと見ているのか気になるという反応

  • 昔Usenetに投稿していた頃は、「このプログラムは世界中の数千台のコンピュータにニュースを送信します。あなたの投稿はネットワークに数百、数千ドルのコストを発生させます。本当に投稿するのか慎重に確認してください」という警告文が常に付いていた時代があった、今のLLMクライアントにもこういう警告文が必要なのではないかと想像、リクエスト1回ごとにどれだけの待機電力由来の炭素が発生するか計算してくれる形を提案

    • 一部の国では「rolling coal」(自動車の過剰排煙)文化がある、このような警告文はかえって逆効果を招く可能性があるという懸念

    • 引用された警告文はむしろ逆の意味を伝えている、結局この種の警告が消えた理由はコストが大幅に下がったからだろうし、似たことがAIにも当てはまるかもしれない

    • メールを印刷する前に環境影響を考えろという巨大なフッターメッセージを思い出す、実際には印刷時に不要な1ページを余計に消費したという体験談

    • この警告メッセージ自体は面白い、実際に大きなコストを生むのはメッセージそのものではなく、それを送るコンピュータだ、送信メッセージ量が増えるほど単位当たりコストは下がるという指摘

    • すべてのことにこうした警告を付けない限り、AI技術だけがエネルギー使用を理由に批判されるのは不公平だと強調

  • 核心は排出コストを電気料金に内部化することだと思う、個々の利用者が悩む話は本質から外れる、輸送・暖房・産業がすべて電化されれば需要はどうせ急増するのだから、電力の迅速な脱炭素化が必要

    • 同意するが、消費削減や効率改善もエネルギー転換の重要な部分であり、使わなければ生産する必要もなくなる

    • こうしたコストを内部化するには、社会が排出コストとは「何か」について合意することが先決課題、現実的には電力を非常に豊富かつ効率的にするほうがより簡単な道で、社会そのものは簡単には改善できないという意見

  • 「DeepSeekは6000億パラメータだが、実際には mixture-of-experts 構造なのでトークンごとに約12.5%しか使わない(記憶が正しければ)」、これを明記しないと本文の信頼性が落ちるという意見、テキストのエネルギー使用量に関する最も信頼できた分析として epoch.ai のリンクを共有、一般的な質問応答は平均0.3Wh〜最大コンテキストでは40Whまで消費するが、大半の利用はこれよりずっと少なく、テキストのエネルギー使用量自体は便益に比べれば小さい、一方で動画生成はエネルギー消費が非常に大きい、LLMベースのコード生成利用についてもこのような数値分析が知りたいという声

  • このスレッドで膨大なエネルギー消費を正当化するコメントの多さと、現状この技術がひどく無駄なこと(テキスト/ビジュアルスパム)に使われているという状況は、暗号資産のときのエネルギー論争と驚くほど対照的だ、ビッグテック企業が主要な雇用主であるため容認されているような空気もある

    • AIには理論上の利点が少なくともあるが、暗号資産は設計上無駄だ、ただし実際のAIの費用対効果の構造もなお未知数

    • ビットコインは価格が上がるほどエネルギー消費も増えるが、LLM推論コストは急速に低下する傾向にある(参考リンク)、AppleやGoogleのような企業も自前のデータセンターやオンデバイスAIの導入を進めている、同時により高コストなアルゴリズムも開発され続けているが、大半の用途はノートPCやスマートフォンのようなバッテリー制約のある機器でも動くほど安くなる可能性がある

    • 暗号資産ブームとのつながりは興味深い、こうした流れは一度始まると後戻りしにくいのが人間の本性だという意見

    • 昔のHNでは暗号資産に対する空気が今ほど否定的ではなかったという記憶の共有

    • 暗号資産のエネルギー使用(特にビットコインPoW)は本当に無駄だというジョーク

  • このページが何をしているのかも分からない怪しいJavaScriptのせいで、何もしていないのにCPUが全開で使われる状況でこの記事を読んでいるのは皮肉だ

    • ブラウザが各ページのCPU使用量を厳しく制限し、さらにCPU資源を追加で使う必要があるときはカメラのように明示的な権限要求を出してほしい

    • 昼食前にこの記事を読んで同じことを考えた、tabdouse に関するブログ記事を共有、cgroups などの手もあるが完全には満足できないという言及

  • 今のAIはまるでコンピュータ黎明期の「メインフレーム」時代のようだ、部屋ひとつを埋めるほどの大きな機械が膨大な電力を消費しながら、今のスマートフォン以下の性能しか出せなかった、今後はモデル効率化とハードウェア特化が急速に進むと見ている、AI専用チップによるローカル推論は大半の作業のエネルギー使用を大幅に削減でき、その結果として大規模な計算資源を複雑な科学問題に集中させられる点に意味があると思う

    • CPU発展曲線(幾何級数的成長)はしばしば引用されるが、実際には他分野ではほとんど当てはまらない、半導体は非常に特殊で幸運な条件に支えられて成長できたのであって、バッテリー・核融合・量子コンピューティングなどはそうではない、半導体系ではすでに取れる低い果実はほぼ取り尽くされており、AI効率化もそんなに一気に伸びる可能性は低い、今後は何十年にもわたる遅い漸進的進歩のほうが現実的で、数十億パラメータと何兆回もの演算の必要性が一瞬で消える道はないという意見、フォトニックコンピューティングに可能性はあるのかという問い

    • 「AI専用チップ」という話が個人的によく分からない、LLMはそもそもGPUに合うよう設計された技術で、すでにハードウェアは存在している、問題はGPUがますます大型化し高温化し電力消費も増えていることだ、GPUより優れたものがあればすでに移行していただろうし、CPUに戻して効率が出せる構造ならとっくに変わっていたはずだという意見

    • 実際、自分の古いノートPC(7年物)でも小さなGemmaモデルをかなり簡単に動かせることに驚いた、一部の作業だけLLMに回し、残りは従来のプログラムで処理する形で効率改善の可能性を想像

  • AIのエネルギー使用について今まで読んだ中で最高の記事だという評価、ビッグテックが社会的意思決定に必要なデータの提供を渋っている点が印象的、関連テーマを深く掘り下げる Data Vampires ポッドキャストシリーズを推薦

  • 2017年にAI導入後、データセンターがエネルギー集約型ハードウェアで構築され、2023年までに電力使用が2倍に増えたという記事内容は興味深い、ただし実際に生成AIが本格的に立ち上がったのは2022年11月のChatGPT登場後であり、2017〜2022年の5年間のAI成長の大半は生成AIではなかったはずだ

    • 2017年はAlphaGoがイ・セドルに勝った翌年であり、"attention is all you need" 論文の発表年でもある、実際に産業界ではすでに前兆があった、OpenAIが2022年に市場適合性の調整に成功しただけで、業界がただ漫然としていたわけではないという指摘

    • その頃から機械学習でのGPU活用が本格化し始めた

    • Metaはすでに検索、推薦、グラフなど自社サービスのあらゆる領域でAIを積極導入しており、そのおかげでLLMブーム以前から数万〜十数万台規模のGPUがすでに用意されていた、そのためLlamaなど主要プロジェクトを進められる有利な立場にあった