GPT-5.2 と GPT-5.2-Codex が40%高速化 (twitter.com/OpenAIDevs) 4 ポイント 投稿者 GN⁺ 2026-02-05 | 1件のコメント | WhatsAppで共有 GPT-5.2 と GPT-5.2-Codex モデルの処理速度が従来比で 40%向上 すべてのAPI利用者向けに推論スタックを最適化 同じモデル、同じ重みのまま、より低いレイテンシを実現 関連記事 OpenAI、GPT-5.5を発表:「実務のための新たな次元の知能」 5 ポイント · 6件のコメント · 6 일 전 OpenAI、APIにGPT-5.5とGPT-5.5 Proを公開 5 ポイント · 2件のコメント · 4 일 전 GPT 5.5 vs Opus 4.7、コーディング/プログラミングにより優れたモデルは? 24 ポイント · 16件のコメント · 3 일 전 1件のコメント GN⁺ 2026-02-05 Hacker Newsのコメント この1か月の間に、OpenAIはCodexユーザー向けにいくつもの機能をリリースした subagentsのサポート 改善されたマルチエージェントインターフェース(Codex app) 推論速度が40%向上 最初の2つの機能だけでも、生産性が3倍になったように感じる。今回のアップデートを本当に楽しみにしている subagentsがどう動作するのか気になる これはAPI専用機能だ Claudeを使ってみると、性能がx²レベルで向上する。OpenAIも緊張しているはずだ 週末の間に、同じプロンプトをGPT-5.2、Gemini 3、Grokで実行してみた Gemini 3とGrokは「thinking mode」で2分以内に終わったが、GPT-5.2は6分間ずっと足踏み状態だった 最近、roonが社員アカウントのほうが一般ユーザーよりずっと速いことに気づいたらしい そのため、内部API呼び出し方式を一般ユーザーより効率的に回せると分かったそうだ 結局、一般ユーザーは残り容量の範囲でしか処理されないことになる 関連記事: Choose Your Fighter (The Zvi) 私の考えでは、OpenAIにはモデルをリリースした後に品質を意図的に下げる癖がある ChatGPT 5.2のWeb版は最初はずっと良かったのに、1〜2週間後に突然品質が落ちた メディアやベンチマークをごまかすための戦略のように見えた 速度を上げるには単に推論強度を下げればいいので、40%改善という話も信じがたい ChatGPT Plusユーザーに最初はProモデルを与えて、後でStandardに切り替えるような「小細工」かもしれない 懐疑的な見方は理解できるが、私たちはそのようなごまかしはしていない モデル品質は一定に保っており、性能低下の報告があればすぐに調査する 今回の速度向上はトークンあたりの処理時間の改善によるもので、モデル品質や重みはそのままだ OpenAIだけではない。Anthropicにも似た事例がある 参考: Claude Code Tracker (MarginLab) Codex向けの日次ベンチマークサイトを作るとよさそうだ 自分でベンチマークをもう一度回してみればいい 興味深いのは、Cerebrasでは推論コストがはるかに高いにもかかわらず、価格を据え置いたことだ ただし、これはCerebrasではない可能性が高い。 もしCerebrasだったなら、モデルの挙動が変わって、速度も10倍くらい速くなっていたはずだ おそらくBlackwellシリーズ向けの最適化カーネルを書き直したのだろう ほぼ間違いなくCerebras上で動かしているわけではない 速度が常に最大の不満だったが、今回の改善でまた使ってみようという気になった どうやってこの速度向上を実現したのか気になる Redditにも品質が落ちたという投稿は多い でもRedditには毎日そういう投稿が上がっている。 Claude関連のsubredditでも同じで、信頼できる証拠はほとんどない
1件のコメント
Hacker Newsのコメント
この1か月の間に、OpenAIはCodexユーザー向けにいくつもの機能をリリースした
最初の2つの機能だけでも、生産性が3倍になったように感じる。今回のアップデートを本当に楽しみにしている
週末の間に、同じプロンプトをGPT-5.2、Gemini 3、Grokで実行してみた
Gemini 3とGrokは「thinking mode」で2分以内に終わったが、GPT-5.2は6分間ずっと足踏み状態だった
最近、roonが社員アカウントのほうが一般ユーザーよりずっと速いことに気づいたらしい
そのため、内部API呼び出し方式を一般ユーザーより効率的に回せると分かったそうだ
結局、一般ユーザーは残り容量の範囲でしか処理されないことになる
関連記事: Choose Your Fighter (The Zvi)
私の考えでは、OpenAIにはモデルをリリースした後に品質を意図的に下げる癖がある
ChatGPT 5.2のWeb版は最初はずっと良かったのに、1〜2週間後に突然品質が落ちた
メディアやベンチマークをごまかすための戦略のように見えた
速度を上げるには単に推論強度を下げればいいので、40%改善という話も信じがたい
ChatGPT Plusユーザーに最初はProモデルを与えて、後でStandardに切り替えるような「小細工」かもしれない
モデル品質は一定に保っており、性能低下の報告があればすぐに調査する
今回の速度向上はトークンあたりの処理時間の改善によるもので、モデル品質や重みはそのままだ
参考: Claude Code Tracker (MarginLab)
興味深いのは、Cerebrasでは推論コストがはるかに高いにもかかわらず、価格を据え置いたことだ
もしCerebrasだったなら、モデルの挙動が変わって、速度も10倍くらい速くなっていたはずだ
おそらくBlackwellシリーズ向けの最適化カーネルを書き直したのだろう
速度が常に最大の不満だったが、今回の改善でまた使ってみようという気になった
どうやってこの速度向上を実現したのか気になる
Redditにも品質が落ちたという投稿は多い
Claude関連のsubredditでも同じで、信頼できる証拠はほとんどない