ChatGPT ProでGPT-5.4の1Mコンテキストをきちんと使うには設定が必要
(reddit.com)最近、r/codex に興味深い投稿がありました。
あるユーザーが、ChatGPT Pro + Codex で GPT-5.4 を使っているのに、コンテキストが 258K しか表示されないという質問を投稿しました。
「GPT-5.4 は 1M コンテキストだと聞いたのに、なぜ 258K しか出ないのでしょうか?」
実際、Codex CLI や IDE で確認すると、デフォルトのコンテキストが約 258K と表示される場合があります。
コメントで出ていた解決方法は、config 設定を直接追加することです。
例:
model_context_window=800000
model_auto_compact_token_limit=700000
これを config.toml に追加すると、約 800K レベルまでコンテキストを拡張して使えたという体験談が共有されていました。
いくつかのポイント:
• GPT-5.4 は最大約 1M トークンのコンテキストをサポートしていると知られている
• ただし Codex 環境では、デフォルト設定が約 258K に制限された状態で始まる場合がある
• config の値を修正すると、より大きなコンテキストを利用できる
また、最大値に近すぎる設定にすると性能低下が起こる可能性があるため、少し余裕を持たせたほうがよいという意見もありました。
⸻
個人的に興味深かった点
AI ツールがますます複雑になるにつれて、
「モデルのスペック = 実際のデフォルト設定」ではないケースが増えているように思います。
特に agentic coding / Codex のような環境では、設定を直接いじらないと性能をきちんと引き出せないことがかなりあるようです。
Codex や CLI で long context(500K〜1M)を実際に活用してみた方はいらっしゃいますか?
実際の開発 workflow で体感差が大きいのかも気になります。
7件のコメント
model_context_window=800000を使用した場合、コンテキストを50%消費した時点から、質問への回答が前の質問に対する回答として進んでしまう問題があります。ご参考までに。その数値を超えて増やすとトークン価格が2倍になるそうなので、確認したほうがよさそうです。
使ってみましたが、gpt-5.4自体の性能にはとても満足しているものの、たまに直前のメッセージではなくその前のメッセージに対する返答を生成することがあるなど、そこまで安定しているわけではなく、long contextを使うと needle in the haystack task での性能が50%以下に落ちるというレポートもあるので、あえておすすめしたいとは思いません。とはいえ、needle in the haystack task 自体が long-context 性能の測定に適したベンチマークなのかは分かりません。いずれにせよ、Codex は compaction にもあまり時間がかからず、compact 後も文脈をあまり忘れないので、そのまま使っても特に大きな不便はありませんでした。
適切なハーネスがあれば、それでも悪くないようです。compaction自体をあまりしなくなるので、中間損失の問題自体も減るので…。
1Mコンテキストが使えることすら知りませんでした。
macOS向けのcodexアプリにもそのまま適用できることを確認しました。
ああ……どうりで私もコンテキストウィンドウが小さすぎると思っていたのですが、別途設定してあげる必要があったんですね。