2 ポイント 投稿者 GN⁺ 11 일 전 | 1件のコメント | WhatsAppで共有
  • 世界的な汎用DRAMの需給逼迫により、2027年末時点でも需要の60%しか満たせないと予想されており、一部では2030年まで続く可能性があるとみられている
  • Samsung、SK Hynix、Micronなど主要メーカーは新規ファブ増設を進めているが、その多くは2027〜2028年より前には稼働できない
  • 需要を満たすには年間12%の生産増加が必要だが、実際に計画されている増加率は7.5%にとどまる
  • 新規施設はAIデータセンター向けの**HBM(高帯域幅メモリ)**生産に集中しており、民生機器向け汎用DRAM不足の解消には限界がある
  • スマートフォン、ノートPC、VRヘッドセット、携帯型ゲーミング機器など、さまざまな民生電子機器の値上げがすでに進んでいる

世界のメモリ供給不足の現状

  • Nikkei Asiaの報道によると、DRAMの生産拡大が進んでいるにもかかわらず、メーカー各社が2027年末まで需要の60%しか満たせないと予想されている
  • SK Group会長は、チップおよびウェハ不足が2030年まで続く可能性があると述べた

主要メーカーの生産拡大計画

  • 世界3大メモリメーカーであるSamsung、SK Hynix、Micronはいずれも新規ファブ建設を進めている
  • しかし新施設の大半は2027年、早くても2028年になってようやく稼働を開始する見込み
  • 2026年中に実際に増産が実現した事例は、SKが2月に稼働を開始した清州(Cheongju)ファブ1か所のみ

生産増加率と需要のギャップ

  • Counterpoint Researchによると、需要に追いつくには2026〜2027年に年間12%の生産増加が必要
  • 実際に計画されている生産増加率は7.5%にとどまる
  • 計画と必要量の乖離が、供給不足を長期化させる主因となっている

HBM優先生産と消費者市場への影響

  • 新規ファブはAIデータセンターで使われる**HBM(High-Bandwidth Memory)**の生産に集中している
  • メーカー各社はすでにHBMを汎用DRAMより優先して生産しており、PCやスマートフォン向けメモリ供給の改善効果は不透明
  • このため、民生家電分野における価格圧力が和らぐかどうかは不透明

民生電子機器の値上げ事例

  • RAM不足により、すでにさまざまな製品カテゴリで値上げが発生
    • Samsung Galaxyスマートフォンおよびタブレットの値上げ
    • Microsoft Surfaceの値上げ
    • Meta Quest 3 / 3S VRヘッドセットが100ドル値上げ
    • AYNのデュアルスクリーン携帯型ゲーミング機器の値上げ

1件のコメント

 
GN⁺ 11 일 전
Hacker Newsの意見
  • 私の理解では、Samsung、SK Hynix、Micronには需要をさばける生産能力がなく、ある在庫もDRAMよりHBMに優先配分されている。HBMは民生向け電子機器に簡単には回しにくそうなので、今後3〜4年は一般消費者市場がかなり厳しく見える。加えてOpenAIも資本制約に縛られていて、バーンレートや売上に対する疑問が大きくなる中、今回のRAMパニックを引き起こした購入約束すら最後まで履行しない可能性があり、結局はメモリメーカーが在庫を抱えることになるかもしれないと思う

    • 2019年のRadeon VIIが、700ドルのコンシューマー向けGPUでありながらHBM2で1TB/sの帯域幅を出していたことを思い出す。当時AMDはミドルレンジまでHBMを載せていたのに、以前は一般消費者にも売れていた技術を、なぜ今になってまるで神の技術のように高価で特別なものとして語るのか、あまり納得できない
    • 地域要因も大きい。オランダでは電力網の飽和のため、データセンターを建てようとしていた企業が、すでに費用を払い接続保証まで受けていたのに、2030年以前は接続が難しいと通知されている。そうなると、まだ建設すらされていないデータセンターを前提にメモリ容量が予約されていることになるので、建設が延期または中止されれば、供給と需要がさらに奇妙にねじれるかもしれないと思う
    • 私の感覚では、メモリメーカーが最後にしわ寄せを受ける構図はいつも繰り返されてきた。少なくとも3回は似たような場面を見た気がする
    • それでも今回は、メモリメーカーが以前のように大規模な増設をしておらず、まさにその点が在庫爆弾の回避のための選択だったのだと思う
    • Altmanの各種インフラ建設の約束が崩れ、思ったより早く供給過剰の方向へさらに傾くと見ている。金融業界も、そうしたインフラはもはやそんなに早く建てられず、建てても採算が取れないという現実に気づきつつあるのだと思う
  • まだ整理できていない疑問がある。AIがソフトウェア制作をより容易にするなら価格は下がるはずなのに、すでにAI支出の規模が世界全体のソフトウェア総支出の何倍にもなっている状況で、ソフトウェア企業がどうやってその費用を負担するのか分からない。だから今のRAM需要は砂上の基盤のように見え、最終的には大規模な供給過剰に転じる可能性が高そうだ

    • 私はそこまで悲観していない。LLMはすでにツールとして十分有用なので消えないだろうし、核心の問題は結局スケーラビリティとコスト削減だ。小さな会社が使えなくても、大企業は国防、資源開発、金融のような分野で先にさまざまな用途を見つけられる。逆にコストが十分下がれば小さなチームも使うようになるが、あまりに安くなると潜在的な消費者が自宅で直接ソフトウェアを作るようになるという逆説も起こり得ると思う
    • アナリストの試算では、iPhoneユーザー1人あたり月35ドル、Netflix加入者1人あたり月180ドルの新たなサブスクリプションが必要だという話まで出ている。Claude Maxの価格が上がったとしても、すべてのNetflixユーザーがそんな費用を払うかは懐疑的だ。関連内容はTOM'S HARDWAREの記事を参照できる
    • みんなJevons paradoxに賭けている雰囲気だ。AIが次の半導体次のインターネットになることを期待しているわけだ
    • 私はこれをトロイの木馬のように見ている。結局は世界がこの技術に慣れ、依存するようになることを期待する戦略のように感じる
  • この状況は長引くと思う。コロナ以後、メーカーは供給制限が利益を最大化することを学び、自動車価格が以前のように簡単には下がらないのを見ると、RAMも同じ道をたどる可能性が高い。AppleやOpenAIのような大口顧客と違って、一般消費者は大口契約ができないので、結局私たちがコストを負担する側になるのではないかと思う

  • 私は少し楽観的だ。今回の件がRAMを無造作に使う開発者への警告になり、今後アプリはもっとメモリ効率的にならざるを得ないことを期待している

    • この様子は、1973年のオイルショック後にV8エンジンの時代が終わっていった場面と少し重なって見える
    • ただ、現在の需要を引っ張っているのは主に推論 inferenceなので、実際には開発者に切実に最適化する動機がそれほど大きくないかもしれないと思う
    • この機会にElectronが力を失ってほしい。画面に単純な内容を表示するのに500KBで済むことを、300MBを超えるアプリで表示するのはいつも理解できなかった
      • それは本当に夢のようなシナリオだと感じる
    • RAMを少なく使うには、しばしばCPUをより多く使う必要があるので、RAM価格が上がっても全体としては良いトレードオフにならないことが多いと思う
  • 記事でGoogleのTurboQuantにまったく触れていないのは意外だった。26日前に公開され、KVキャッシュメモリを6分の1に減らし、速度も最大8倍向上するとされ、すでにllama.cppにも反映されていて、より大きなコンテキストを、より小さなモデルへの妥協なしに回せるよう助けている。もちろん、私もこれがRAM問題を大きく緩和するかについてはまだ懐疑的だ。需要が削減効果を上回る可能性が高そうだ。関連リンクはこのHN投稿を参照できる

    • 業界ではTurboQuantは最先端のSOTAではないという認識も強い。ビットレートごとのKV量子化にはもっと良い手法があり、たとえばSpectralQuantのような代替もある。しかも6倍という数値はBF16 KVキャッシュと比べたときのスタイルの数字で、既存の8ビットや4ビット方式と比較すると話は変わってくる
    • 訂正すべき点もある。TurboQuantの論文は実際には2025年4月のarXivに掲載されており、現在の実装では圧縮率はおおむね3.8倍から4.9倍の水準で、上限の数値はGSM8K性能の低下をかなり受け入れた場合のものだ。速度もベースライン比で80〜100%程度なので改善がないか、むしろ遅くなる可能性もある。実装状況はvLLM PR、議論はvLLM Issueで確認できる。私は個人的にDMSを試していて、こちらのほうが有望で、他の量子化とも重ねて使えるように思う。より大きな削減は、Gemma 4のSWAグローバルハイブリッド、MLA、DSA、線形レイヤー、SSMのようなモデルアーキテクチャの改善から出てくるが、こうしたものも結局はJevons paradoxのため、総メモリ需要そのものを減らしはしないと思う。私のコーディングツールだけでも月100億〜150億キャッシュトークンを使っており、エージェントと主流開発者の利用が増えれば、人々が欲しがるトークン数には事実上上限がないように思える
    • ローカルモデル側の取り組みが低RAM・低VRAMを目標に進んでいるのは確かに助けになると思う。たとえばGemma 4 32Bは市販のノートPCでも動き、2年前のSOTAだったgpt-4o級の知能と同等かそれ以上だと感じる。メモリ価格が安定する頃には、Opus 4.7級もローカル実行できるようになるかもしれないと期待している。大きなモデルは内蔵知識がより多いが、Web検索のようなツール呼び出しを正しく判断できればかなり補えると思う
    • 私の考えでは、純効果は同じ仕事をより少ないメモリでこなす方向ではなく、同じメモリでより多くの仕事をする方向だ。企業は提供する製品のコンテキストウィンドウをさらに大きくし、人々はそれをそのまま使うようになるだろう。それがメモリの未来に関する少し苦い現実に見える
    • それでも、モデル自体をメモリに載せておくコストは依然として大きい。たとえばRAMが16GBなら、体感できる恩恵はそれほど大きくないと思う
  • 記事で中国の新興メモリメーカーに触れていないのも意外だった。関連事例としてこの記事を思い出す

    • 記事自体にもある通り、CXMTは先端DRAMプロセスでSamsung、SK Hynix、Micronより約3年遅れており、2026年下半期のラインは2027年まで世界の需給バランスに大きな影響を与えにくいという。一方、元記事は2028年に需要が供給を上回ると見ているので、中国生産が現在の技術水準に追いつく時期は2029年ごろになるかもしれない。長期的には値下げに役立つだろうが、直近の不足を防げるほどの生産効率はまだないという判断だ
  • 最近ゲーミングPCを新しく組もうとしていたが、価格ショックと個別部品の供給問題のためずっと先延ばしにしていた。ところが偶然、近くのMicrocenterで5090と高級電源まで入った、ほぼ全部入りの完成品PCを5,000ドル未満で見つけて、その場で買ってしまった。10年余り前なら、完成品PCは本当にお金が有り余っていて、週末の丸一日すら使えないときだけ買う選択肢だったが、今ではむしろ悩む必要のない選択に感じられた

    • それでも基本原則は自作が有利だと思う。完成品は組み立て工賃が入るので構造的に高くなりがちだし、マザーボードや電源のような目立たない部品で妥協している可能性も低くない。もちろん良いディールを見つけたのかもしれないが、その例外が全体の原則を変えるわけではないと思う
  • 今回の件が、よりメモリ効率の良いソフトウェアを使うきっかけになるのか気になる。最近はごく些細なプログラムでもRAMを数百MB食うことが多すぎると感じる

    • 私も実際にvibe-codingをしながら、RAM使用量を減らすことを明示的な目標にしたことが確かにあった
  • ついに最適化の時代が来たようで楽しみだ

    • ただし私は少し懐疑的だ。私が使うアプリはだいたいロックインが強く、最適化する組織的な意思がないか、逆に最適化するためのリソースが足りない場合が多い。だから現実的な最適化とは、私自身が重いツールを捨てて軽いツールへ移る程度で、そうした選択が数多く積み重なって軽いツールの資金や開発リソースが良くなることを願うほうだ
    • 私はずっと前から、OS開発者は大胆な最適化に集中すべきだと言ってきた。チップ不足でなくても半導体微細化の鈍化はすでに進んでおり、ソフトウェア最適化はあらゆるハードウェアの助けになるが、販売を直接押し上げるわけではない。その点でLinuxはしがらみが少なく、もしかするとHaiku OSのような選択肢が再び注目されるかもしれないと想像してしまう
  • 私の目には、RAMメーカーは依然として増産に消極的に見える。投資家が知らない長期需要シグナルを、メーカーのほうが先に見ているのだろうかと気になる

    • 彼らは以前に何度も痛い目を見ている。DRAM業界は好況と不況の繰り返しが長く続き、需要が伸びるたびに皆が新しいファブを建てたが、価格が急落して投資を回収できず倒産してきた。80年代、90年代、2000年代にもそうだったし、いまではメーカーが3社しか残っておらず、需要が本質的に循環的だということを誰よりもよく知っているのだと思う
    • 半導体業界は50年以上にわたってブーム・アンド・バストの産業だった。関連画像もあるし、私自身も30年の業界経験の中で、顧客注文の30%しか満たせなかった時期と、その2年後にファブ稼働率50%で赤字を出していた時期の両方を経験した。最新ファブ1つ建てるのに200億ドルと3〜4年かかるので、AIがバブルかもしれないと考えるなら、需要崩壊のあとにぴかぴかの空っぽの工場だけ残す選択はあまりに危険だという判断だ
    • 現実を見ている人なら、皆だいたい同じように考えると思う。OpenAIの購入コミットメントはあまりにも非現実的で、持続可能にも見えない
    • 彼らの立場では、損失シナリオはそれほど大きくないのかもしれない。事実上カルテルに近い構造で、RAMはどうせ必要な製品なのだから、少なめに作っても価格と需要のバランスの中で、自分たちに最も有利なリスク対リターンを計算したのだと思う。消費者の好感や評判より、市場のほうが彼らを必要としている点が核心に見える