- A$AP Rockyの新曲 「Helicopter」ミュージックビデオは、ほぼすべての人物の演技を ボリューメトリックキャプチャとGaussian Splatting で実現した作品
- 撮影では Evercoastの56台RGB-Dカメラアレイ を使用して実際のパフォーマンスを3Dで記録し、ポストプロダクションでは Houdini・OctaneRender でレンダリング
- CG Nomads GSOPs と WildCaptureの社内ツール群 により、スプラットデータのシーケンシング、ライティングの再調整、物理的インタラクションを処理
- 映像のシュールな質感にもかかわらず、すべてのシーンは 実際の俳優による物理的な演技 を基に制作
- このプロジェクトは 大衆音楽映像における動的Gaussian Splattingの実運用事例 であり、今後のリアルタイム3D映像制作の可能性を示している
「Helicopter」ミュージックビデオの制作概要
- A$AP Rockyの「Helicopter」は Radiance Fields技術 を活用したミュージックビデオで、ほぼすべての人物演技 がボリューメトリック方式でキャプチャされている
- 映像は、混乱した動きと初期MTVスタイルのエネルギーを特徴としている
- 人物は Dynamic Splat の形でレンダリングされ、立体的な空間感を実現
- プロジェクトには Evercoast、Grin Machine、WildCapture、Fitsū.ai などが参加
- Evercoastがパフォーマンスキャプチャを担当し、Grin MachineのChris RutledgeがCGスーパーバイザーとして参加
- WildCaptureのWilfred Driscollが 時間的整合性 と モーション遷移 のための技術支援を担当
ボリューメトリック撮影と技術構成
- 撮影は2025年8月に ロサンゼルス で行われ、Evercoastの 56台のRGB-Dカメラ と 2台のDellワークステーション で同期
- 俳優たちはワイヤーに吊られたり天井バーにぶら下がったりして、物理的スタント を実施
- ヘリコプターの羽根や小道具は実際の木製構造物で代用され、現実的なセットで撮影
- 合計 10TBの生データ が収集され、約 30分分のスプラット映像 としてレンダリング
- 最終成果物は 約1TBのPLYシーケンス 規模で出力
ポストプロダクションパイプライン
- ポストプロダクションは Houdini で進められ、CG Nomads GSOPs でスプラットデータの操作とシーケンシングを実施
- OTOYのOctaneRender を使って最終レンダリングと ライティングの再調整(relighting) が可能
- OctaneのHoudini統合が成熟したことで、影や立体感の表現 が可能になった
- Blender はレイアウトとプリビジュアル段階で活用
- スプラットシーケンスを軽量なプロキシキャッシュに変換してシーン設計に使用
- WildCaptureの社内ツールで ポーズ推定スケルトン を生成し、衝突・物理シミュレーション を支援
リアルタイムプレビューと制作効率
- Evercoastシステムは 撮影現場でリアルタイムの空間フィードバック を提供
- 監督は撮影直後に メッシュベースのプレビュー を確認でき、その後 Webプレイヤー で完全なスプラットレンダリングを検討可能
- 大容量データをダウンロードする前に、必要なシーンだけを選択的に後処理
- このワークフローは 従来の映像制作よりもシミュレーションに近い方式 であり、高速かつコスト効率の高い制作を可能にする
実際のパフォーマンスと視覚的錯覚
- 一部の視聴者は映像を AI生成物 と誤解したが、すべてのシーンは 実際の俳優による物理的な演技 を基にしている
- スタント、ジャンプ、落下などすべての動作が実空間で行われた
- ボリューメトリックキャプチャのおかげで カメラ構図の再配置 と 空間連続性の破壊 が自在になり、人工的な印象を生んでいる
- Radiance Field技術は現実を置き換えるのではなく、現実の動きと空間を保存 する役割を果たす
A$AP RockyとRadiance Fieldsの以前の協業
- A$AP Rockyは2023年の「Shittin’ Me」ミュージックビデオでも NeRFとInstant-NGP GUI を活用している
- 今回の「Helicopter」はその延長線上で、動的Gaussian Splattingの大規模な実運用事例 と評価されている
1件のコメント
Hacker Newsのコメント
YouTube動画リンク
残念ながら彼はあまり注目されなかった。Discordによれば、このスタイルのミュージックビデオ制作依頼ばかりが多すぎて、結局音楽コラボではなくこのプロジェクト自体をやめたらしい
今回のミュージックビデオは GSOPs と OTOY OctaneRender を組み合わせて制作されました
技術に興味があれば、公式サイトやGitHubリポジトリを見てみてください
Houdini のようなツールでこの技術を使えば、アーティストは仮想カメラを自由に動かせます
2023年の中核論文と GPU および微分プログラミングの進歩のおかげで、今では実務でも使えるようになったようだ
「データを Houdini に持ち込み、GSOPs で操作し、OctaneRender で最終レンダリングした」という部分が特に印象的だった
私の作品集
ライティングや影を再設定したり、シーンの一部を修正しても、元のリアリティを保てるのだろうか?
最近の映画制作が多視点撮影後のポスト編集中心になっていくのを見ると、いずれ人間は Gaussian splat、背景はグリーンスクリーンで処理する時代が来るのかもしれない
それでも技術は急速に進歩しており、ボリュメトリックキャプチャは確実に定着すると思う。
静的環境ではこの例のように品質は非常に高い
音楽が好みに合わなければミュートして見てもいい
動画リンク