イーロン・マスク、Cursor買収契約後「CursorデータでGrok V9を補強学習する予定」
(x.com/elonmusk)- イーロン・マスクが5月15〜17日にX(Twitter)でGrok新モデルの学習状況を自ら公開
- 現在の公開版(v4.3)は0.5TパラメータのV8ファウンデーションモデルをベースとしており、数日おきに改善中
- 内部で開発中のV9は1.5Tパラメータで、「たった今学習を終えた」と明かした
- マスクはこの段階を一般に「pre-training」と呼ぶが、「誤った用語」だと指摘
- V8比でデータキュレーション、学習レシピ、モデル規模のすべてを大幅にアップグレード
- Hopperで学習したV8とは異なり、V9はBlackwellアーキテクチャ向けに最適化
- 次の段階として、補強学習(supplemental training、一般に「mid-training」と呼ばれる段階)にCursorデータを追加する予定
- マスクは「V9はCursorデータを入れる前でもすでに非常に優れた性能を示している」と言及
▍背景: SpaceX-Cursorディール
- 2026年4月、SpaceX(昨年2月にxAIと合併)は、年内に600億ドルでCursorを買収する権利、または協業の対価として100億ドルを支払うオプション契約を締結
- この契約直前、CursorのシニアエンジニアAndrew Milich、Jason GinsbergがxAIへ移籍し、マスクに直接レポートする体制で合流
- xAI Colossusスーパーコンピュータ(H100 100万枚相当のコンピュート)とCursorの開発者向け製品・配布網を組み合わせる構図
- Cursorが自社モデル(Composer)の学習にxAIチップ数万枚をレンタルして使っていた流れが、本契約によって正式化
- つまり今回のGrok V9に関する「Cursorデータ補強学習」という発言は、単なる協業ではなく、買収オプション契約によるデータシナジーが実際のモデル学習パイプラインに入り始めたことを意味する
▍読みどころ
- マスクが「pre-training」という業界標準用語を公然と否定し、「supplemental training」 / 「mid-training」という段階区分を強調した点は興味深い
- Cursorが保有しているのは単なるコードではなく、数百万人の開発者によるリアルタイム編集行動・テスト結果・ログ・スクリーンショットなどの「コーディング行動データ」であり、コーディングエージェント学習における最も高価な資産
- Anthropic Claude、OpenAI Codexがコーディング市場を支配する状況で、xAIが格差を埋めるための最も直接的なカードと解釈される
出典:
- https://x.com/elonmusk (May 15, May 17 reply)
- https://cnbc.com/2026/04/…
- https://techcrunch.com/2026/04/…
まだコメントはありません。