4 ポイント 投稿者 GN⁺ 2026-02-05 | 1件のコメント | WhatsAppで共有
  • GPT-5.2 と GPT-5.2-Codex モデルの処理速度が従来比で 40%向上
  • すべてのAPI利用者向けに推論スタックを最適化
  • 同じモデル、同じ重みのまま、より低いレイテンシを実現

1件のコメント

 
GN⁺ 2026-02-05
Hacker Newsのコメント
  • この1か月の間に、OpenAIはCodexユーザー向けにいくつもの機能をリリースした

    • subagentsのサポート
    • 改善されたマルチエージェントインターフェース(Codex app)
    • 推論速度が40%向上
      最初の2つの機能だけでも、生産性が3倍になったように感じる。今回のアップデートを本当に楽しみにしている
    • subagentsがどう動作するのか気になる
    • これはAPI専用機能
    • Claudeを使ってみると、性能がx²レベルで向上する。OpenAIも緊張しているはずだ
  • 週末の間に、同じプロンプトをGPT-5.2、Gemini 3、Grokで実行してみた
    Gemini 3とGrokは「thinking mode」で2分以内に終わったが、GPT-5.2は6分間ずっと足踏み状態だった

  • 最近、roonが社員アカウントのほうが一般ユーザーよりずっと速いことに気づいたらしい
    そのため、内部API呼び出し方式を一般ユーザーより効率的に回せると分かったそうだ
    結局、一般ユーザーは残り容量の範囲でしか処理されないことになる
    関連記事: Choose Your Fighter (The Zvi)

  • 私の考えでは、OpenAIにはモデルをリリースした後に品質を意図的に下げる癖がある
    ChatGPT 5.2のWeb版は最初はずっと良かったのに、1〜2週間後に突然品質が落ちた
    メディアやベンチマークをごまかすための戦略のように見えた
    速度を上げるには単に推論強度を下げればいいので、40%改善という話も信じがたい
    ChatGPT Plusユーザーに最初はProモデルを与えて、後でStandardに切り替えるような「小細工」かもしれない

    • 懐疑的な見方は理解できるが、私たちはそのようなごまかしはしていない
      モデル品質は一定に保っており、性能低下の報告があればすぐに調査する
      今回の速度向上はトークンあたりの処理時間の改善によるもので、モデル品質や重みはそのままだ
    • OpenAIだけではない。Anthropicにも似た事例がある
      参考: Claude Code Tracker (MarginLab)
    • Codex向けの日次ベンチマークサイトを作るとよさそうだ
    • 自分でベンチマークをもう一度回してみればいい
  • 興味深いのは、Cerebrasでは推論コストがはるかに高いにもかかわらず、価格を据え置いたことだ

    • ただし、これはCerebrasではない可能性が高い。
      もしCerebrasだったなら、モデルの挙動が変わって、速度も10倍くらい速くなっていたはずだ
      おそらくBlackwellシリーズ向けの最適化カーネルを書き直したのだろう
    • ほぼ間違いなくCerebras上で動かしているわけではない
  • 速度が常に最大の不満だったが、今回の改善でまた使ってみようという気になった

  • どうやってこの速度向上を実現したのか気になる

  • Redditにも品質が落ちたという投稿は多い

    • でもRedditには毎日そういう投稿が上がっている。
      Claude関連のsubredditでも同じで、信頼できる証拠はほとんどない