- macOS Tahoe 26.2 に Thunderbolt 5ベースのRDMA 機能が新たに追加され、MLXを活用した 分散AI推論 などの低レイテンシ通信が可能に
- これは 「Macを高速分散コンピューティングノードとして扱えるようにすること」 を意味し、macOSが単なるデスクトップOSを超えて、ローカルAI・HPC実験プラットフォーム へと拡張可能になった
RDMAとは何か
- RDMA(Remote Direct Memory Access) は、あるコンピューターが別のコンピューターのメモリに CPUの介入なしで直接アクセス する通信方式
- ネットワークスタック、カーネルコピー、コンテキストスイッチを迂回し、レイテンシを極限まで下げ、スループットを大幅に向上 させる
- 主にInfiniBandやRoCEのようなデータセンターネットワークで使われてきた
- 高性能コンピューティング(HPC)、分散ストレージ、大規模AI学習・推論で標準的な技術として定着している
- 核心は、「ネットワーク通信でありながら、まるで同じメモリを使っているかのように高速に動作する」 という点
Thunderbolt上のRDMAの意味
- macOS 26.2では、Thunderbolt 5で接続されたMac同士でRDMA通信をサポート
- 従来はRDMAがサーバー級のネットワーク機器に限られていたのに対し、今では ケーブル1本で接続したローカルMacクラスターでも可能 になった
- Thunderboltの高帯域幅と非常に低いレイテンシを そのままRDMAモデルで活用 できる
- つまり、「机の上の複数のMacをデータセンターのように束ねる通路」 が開かれたということ
なぜAIワークロードと相性がよいのか
- 分散AI推論や学習では、ノード間のテンソル交換 がボトルネックになりやすい
- RDMAはこの過程でCPUを消費せず、GPU ↔ GPUに近い通信パターン を提供する
- リリースノートで言及された MLXベースの分散AI推論 は、このような低レイテンシ・高帯域通信を前提に設計された構造
- モデルを複数のMacに分散配置し、単一マシンのように動作する推論クラスターを構成 できる可能性が広がる
- 小規模チームや研究環境では、「サーバーなしでMacによるAIクラスターを構築する」 ことが現実的な選択肢になる
実際に可能になる利用シナリオ
- 複数のMac Studio / Mac ProをThunderboltで接続し、ローカルAI推論ファームを構築
- 大規模モデルを単一GPUに載せにくい場合、モデル分割推論 の実験が可能
- ローカル分散シミュレーション、高速データパイプライン、実験的な分散システム研究
- データセンター移行前段階における プロトタイプ・PoC環境の構築コストを大幅削減
4件のコメント
Thunderboltネットワーキングは本当に便利ですよね
デイジーチェーンにできるので、ハブも必要ありません
これでMacデバイスをつないで推論ファームを構築し、自宅でサービスを提供する人もかなり増えそうですね。
Appleの公式リリースノートでは「RDMA over Thunderbolt」が可能になったという1行しか書かれていないため、GN+で補足説明を書いたものです。
Hacker Newsの反応
私はMLXチームのTwitterをフォローしている。彼らはしばしば、512GBを超えるRAMが必要なモデルを動かすために、2台以上のMacを接続する事例を共有している
例えば、Kimi K2 Thinking (1Tパラメータ) や DeepSeek R1 (671B) がある。後者には 設定ガイドのGist も付いている
今後のTahoe 26.2リリースでは、テンソル並列化が可能になる予定だ。各レイヤーを複数マシンにシャーディングすることで、N台ならほぼN倍の速度を出せる。ただし、通信レイテンシが主要な課題だ
その代わり、ローカルでLLMを試したい個人には良いが、資金力のある企業がGPUの代わりにこれを大量購入する理由はなさそうだ
5万ドルの予算で推論用ハードウェアを比較してみた
最近のRAM市場の混乱の中でも、Appleの安定したサプライチェーンのおかげで、Appleコンピューティングが中規模推論クラスター構築のコスパの良い選択肢として定着したら、本当に皮肉だと思う
複数のMac Studioをクラスターとして束ねるという話だが、物理面・管理面の制約が気になる
sudo softwareupdate -i -aではマイナーアップデートしかできないAppleが独自にMシリーズベースのクラウドを構築し、MetalをAI向けに強化し、プライバシー重視のセルフホスティングモデルを提供してくれたらいいのにと思う。機密データの多い業界で大きな成功を収められそうだ
AI以外の一般的な分散ワークロードにもこの機能を使えるのか気になる
参考: MLX分散利用ガイド
関連記事: Engadget - macOS Tahoe 26.2でMacクラスターをAIスーパーコンピュータにできる
George Hotzがtinygradを使ってUSB4経由でMac上でNVIDIA GPUを動作させた
tinygradのツイート
RDMAが何なのかよく分からないが、複数のMacをつないで推論を並列実行できるという意味か? だとしたら本当にすごい機能だ