1 ポイント 投稿者 princox 1 시간 전 | まだコメントはありません。 | WhatsAppで共有
  • イーロン・マスクが5月15〜17日にX(Twitter)でGrok新モデルの学習状況を自ら公開
  • 現在の公開版(v4.3)は0.5TパラメータのV8ファウンデーションモデルをベースとしており、数日おきに改善中
  • 内部で開発中のV9は1.5Tパラメータで、「たった今学習を終えた」と明かした
    • マスクはこの段階を一般に「pre-training」と呼ぶが、「誤った用語」だと指摘
    • V8比でデータキュレーション、学習レシピ、モデル規模のすべてを大幅にアップグレード
    • Hopperで学習したV8とは異なり、V9はBlackwellアーキテクチャ向けに最適化
  • 次の段階として、補強学習(supplemental training、一般に「mid-training」と呼ばれる段階)にCursorデータを追加する予定
  • マスクは「V9はCursorデータを入れる前でもすでに非常に優れた性能を示している」と言及

▍背景: SpaceX-Cursorディール

  • 2026年4月、SpaceX(昨年2月にxAIと合併)は、年内に600億ドルでCursorを買収する権利、または協業の対価として100億ドルを支払うオプション契約を締結
  • この契約直前、CursorのシニアエンジニアAndrew Milich、Jason GinsbergがxAIへ移籍し、マスクに直接レポートする体制で合流
  • xAI Colossusスーパーコンピュータ(H100 100万枚相当のコンピュート)とCursorの開発者向け製品・配布網を組み合わせる構図
  • Cursorが自社モデル(Composer)の学習にxAIチップ数万枚をレンタルして使っていた流れが、本契約によって正式化
  • つまり今回のGrok V9に関する「Cursorデータ補強学習」という発言は、単なる協業ではなく、買収オプション契約によるデータシナジーが実際のモデル学習パイプラインに入り始めたことを意味する

▍読みどころ

  • マスクが「pre-training」という業界標準用語を公然と否定し、「supplemental training」 / 「mid-training」という段階区分を強調した点は興味深い
  • Cursorが保有しているのは単なるコードではなく、数百万人の開発者によるリアルタイム編集行動・テスト結果・ログ・スクリーンショットなどの「コーディング行動データ」であり、コーディングエージェント学習における最も高価な資産
  • Anthropic Claude、OpenAI Codexがコーディング市場を支配する状況で、xAIが格差を埋めるための最も直接的なカードと解釈される

出典:

まだコメントはありません。

まだコメントはありません。