OpenAI、APIにGPT-5.5とGPT-5.5 Proを公開
(developers.openai.com)- GPT-5.5は、Chat Completions APIとResponses APIに追加された最新モデルで、GPT-5.5 proは、より多くの計算資源が有利な難問向けとしてResponses APIリクエストにあわせて追加された
- 100万トークンのコンテキストウィンドウと画像入力、構造化出力、関数呼び出し、プロンプトキャッシュ、Batch、tool search、組み込みcomputer use、hosted shell、apply patch、Skills、MCP、Web検索まで幅広くサポートする
- デフォルトのreasoning effort値は
mediumに設定され、image_detailが未設定またはautoのときは従来の動作を維持する - GPT-5.5のキャッシュはextended prompt cachingでのみ動作し、in-memory prompt cachingはサポートしない
- 最近のAPI変更の流れは、モデル公開を超えてimage、audio、realtime、video、agentツールまで拡大しており、GPT-5.5系はその中でも最新の主力追加項目に位置付けられる
変更ログ
- 今後のサポート終了項目は別ページで確認できる
2026年4月
-
4月24日
- GPT-5.5をChat Completions APIとResponses APIに公開し、より多くの計算資源が有利な難問向けとしてGPT-5.5 proをResponses APIリクエストにあわせて追加した
- GPT-5.5は、100万トークンのコンテキストウィンドウ、画像入力、構造化出力、関数呼び出し、プロンプトキャッシュ、Batch、tool search、組み込みcomputer use、hosted shell、apply patch、Skills、MCP、Web検索をサポートする
- 主な変更点として、reasoning effortのデフォルト値が
mediumに設定された image_detailが未設定またはautoのときは、従来の動作を使用する- GPT-5.5のキャッシュはextended prompt cachingでのみ動作し、in-memory prompt cachingはサポートしない
-
4月21日
- GPT Image 2を、画像生成と編集向けの最新画像生成モデルとして公開した
- GPT Image 2は、柔軟な画像サイズ、高忠実度の画像入力、トークンベースの画像課金、50%割引のBatch APIサポートを含む
-
4月15日
- Agents SDKに新機能を追加した
- 制御されたサンドボックスでagentを実行できる
- オープンソースのharnessを確認し、カスタマイズできる
- memoryの生成時点と保存場所を制御できる
- Agents SDKに新機能を追加した
2026年3月
-
3月17日
- GPT-5.4 miniとGPT-5.4 nanoをChat Completions APIとResponses APIに公開した
- GPT-5.4 miniは、GPT-5.4級の性能をより高速かつ効率的な形で提供し、大規模スループットのワークロード向けに最適化されている
- GPT-5.4 nanoは、速度とコストが最重要となる単純な大量処理向けに最適化されている
- GPT-5.4 miniはtool search、組み込みcomputer use、compactionをサポートする
- GPT-5.4 nanoはcompactionはサポートするが、tool searchとcomputer useはサポートしない
-
3月16日
- gpt-5.3-chat-latestのslugが、現在ChatGPTで使用されている最新モデルを指すように更新された
-
3月13日
- GPT-5.4の
input_image入力で発生していた小さなバグを修正するため、画像エンコーダを更新した - 一部の画像理解ユースケースで品質が改善される可能性がある
- 特別な対応は不要
- GPT-5.4の
-
3月12日
- Sora APIを拡張し、再利用可能なcharacter reference、最大
20秒までのより長い生成、sora-2-pro向け1080p出力、video extension、POST /v1/videos向けBatch APIサポートを追加した sora-2-proの1080p生成は1秒あたり$0.70で課金される- 詳細: video generation guide
- Sora APIを拡張し、再利用可能なcharacter reference、最大
-
3月12日 更新
- 既存動画の編集用として
POST /v1/videos/editsを追加した POST /v1/videos/{video_id}/remixはこれを置き換えるパスで、6か月後にサポート終了予定- 詳細: edit existing videos
- 既存動画の編集用として
-
3月5日
- GPT-5.4をChat Completions APIとResponses APIに公開し、より多くの計算資源が有利な難問向けとしてGPT-5.4 proをResponses APIに追加した
- Responses APIのtool searchもあわせて公開し、モデルが大規模なtool surfaceを実行時まで先送りしてトークン使用量を削減し、キャッシュ性能を維持しつつレイテンシを改善できるようにした
- GPT-5.4に、Responses APIの
computerツールを通じた組み込みcomputer useサポートを追加し、スクリーンショットベースのUI操作が可能になった - より長時間実行されるagentワークフロー向けに、100万トークンのコンテキストウィンドウとネイティブCompactionサポートを提供する
-
3月3日
gpt-5.3-chat-latestをChat Completions APIとResponses APIに公開した- このモデルは、現在ChatGPTで使用中のGPT-5.3 Instantスナップショットを指す
- 詳細: gpt-5.3-chat-latest
2026年2月
-
2月24日
input_fileの対応範囲を拡大し、より多くの文書、プレゼンテーション、スプレッドシート、コード、テキストファイル形式を受け取れるようにした- 詳細: file inputs
-
2月24日 Responses API
- Responses API に
phaseを追加 - assistant メッセージを中間解説
commentaryと最終回答final_answerに分けてラベル付け - 詳細: phase
- Responses API に
-
2月24日 gpt-5.3-codex
gpt-5.3-codexを Responses API に公開- 詳細: gpt-5.3-codex
-
2月23日
- Responses API に WebSocket mode を導入
- 詳細: websocket mode
-
2月23日 オーディオおよびリアルタイムモデル
gpt-realtime-1.5を Realtime API に公開- 詳細: gpt-realtime-1.5
gpt-audio-1.5を Chat Completions API に公開- 詳細: gpt-audio-1.5
-
2月10日 GPT Image Batch
- Batch API が
gpt-image-1.5,chatgpt-image-latest,gpt-image-1,gpt-image-1-miniに対応
- Batch API が
-
2月10日 gpt-5.2-chat-latest
- gpt-5.2-chat-latest slug が、現在 ChatGPT で使われている最新モデルを指すよう更新された
-
2月10日 compaction
- Responses API に server-side compaction を導入
-
2月10日 Skills
- Responses API に Skills のサポートを導入
- ローカル実行と hosted container ベース実行の両方で Skills をサポート
-
2月10日 Hosted Shell
- 新しい Hosted Shell ツールを導入し、コンテナ内ネットワーキングもサポート
-
2月9日
- GPT image モデルの
/v1/images/editsにapplication/jsonリクエスト対応を追加 - JSON リクエストでは、multipart upload の代わりに
imagesと任意のmaskにimage_urlまたはfile_id参照を使用
- GPT image モデルの
-
2月3日
- API 顧客向け推論スタックを最適化し、GPT-5.2 と GPT-5.2-Codex の実行速度が約 40% 向上
- モデルおよびモデル重みは変更なし
2026年1月
-
1月15日
- Open Responses を発表
- OpenAI Responses API 上に構築された、マルチプロバイダー相互運用 LLM インターフェース向けのオープンソース仕様
-
1月14日
gpt-5.2-codexを Responses API に公開- GPT-5.2-Codex は、Codex または類似環境での agentic coding 作業向けに最適化された GPT-5.2 の派生モデル
- 詳細: gpt-5.2-codex
-
1月13日 Realtime SIP
- Realtime API に専用 SIP IP range を追加
sip.api.openai.comは GeoIP ルーティングを行い、SIP トラフィックを最寄りのリージョンに送る- 詳細: dedicated SIP IP ranges
-
1月13日 モデル slug 更新
- gpt-realtime-mini と gpt-audio-mini の slug は
2025-12-15スナップショットを指すよう更新された - 以前のモデルスナップショットが必要な場合は、
gpt-realtime-mini-2025-10-06とgpt-audio-mini-2025-10-06を使用できる - sora-2 の slug は
sora-2-2025-12-08を指すよう更新された - 以前の
sora-2スナップショットが必要な場合は、sora-2-2025-10-06を使用できる gpt-4o-mini-ttsとgpt-4o-mini-transcribeの slug は2025-12-15スナップショットを指すよう更新された- 以前のモデルスナップショットが必要な場合は、
gpt-4o-mini-tts-2025-03-20とgpt-4o-mini-transcribe-2025-03-20を使用できる - 現在最良の結果を得るには、
gpt-4o-transcribeよりgpt-4o-mini-transcribeの使用を推奨
- gpt-realtime-mini と gpt-audio-mini の slug は
-
1月9日
/v1/images/editsで、gpt-image-1.5とchatgpt-image-latestがfidelityを明示的にlowに設定しても誤って high fidelity を使用していた問題を修正
2025年12月
-
12月19日
gpt-image-1.5とchatgpt-image-latestを Responses API の画像生成ツールに追加
-
12月16日
- gpt-image-1.5 と chatgpt-image-latest を最新の高性能画像生成モデルとして公開
- 詳細: image generation guide
-
12月15日
- 新しい日付付きオーディオスナップショット4種を公開
- このアップデートにより、リアルタイム音声ベースアプリケーションの信頼性、品質、音声忠実度が向上
- 詳細: updates audio models
gpt-realtime-mini-2025-12-15gpt-audio-mini-2025-12-15gpt-4o-mini-transcribe-2025-12-15gpt-4o-mini-tts-2025-12-15- 今回の公開には、対象顧客向けの Custom voices サポートも含まれる
-
12月11日 GPT-5.2
- GPT-5.2 を GPT-5 系列の最新 flagship モデルとして公開
- GPT-5.1比で、一般知能、指示追従、精度とトークン効率、マルチモーダル性、とくにビジョン、コード生成、とくにフロントエンドUI生成、API の tool calling と context 管理、スプレッドシートの理解と生成が改善
xhighreasoning effort レベル、簡潔な reasoning summary、compaction を活用した新しい context 管理を追加
-
12月11日 client-side compaction
- client-side compaction を公開
- Responses API の長時間実行される会話で、
/responses/compactエンドポイントにより各ターンで送るコンテキストを減らせる
-
12月4日
gpt-5.1-codex-maxを Responses API で公開- GPT-5.1-Codex は、長期的な agentic coding 作業に最適化された最も高性能なコーディングモデル
- 詳細: gpt-5.1-codex-max
2025年11月
-
11月20日
- Realtime API に DTMF キー入力のサポートを追加
- Realtime sideband connection の使用中に DTMF イベントを受信可能
- 詳細: dtmf_event_received
-
11月13日 GPT-5.1
- GPT-5.1 を GPT-5 系列の最新 flagship モデルとして公開
- とくに steerability、あまり考える必要がない状況でのより高速な応答、コード生成とコーディング用途、agentic workflow に強くなるよう学習
- GPT-5.1 は、あまり考える必要がない状況で高速に応答するため、新しい
nonereasoning 設定をデフォルトで使用 - このデフォルト値は、GPT-5 の従来のデフォルト
mediumとは異なる
-
11月13日 RBAC
- 強化された role-based access controls を公開
- RBAC により、API と Dashboard の両方で、組織とプロジェクト全体にわたって誰が何をできるかを決定できる
-
11月13日 GPT-5.1-Codex
gpt-5.1-codexとgpt-5.1-codex-miniを Responses API で公開- GPT-5.1-Codex は、Codex または類似環境における agentic coding 作業向けに最適化された GPT-5.1 の派生モデル
- 詳細: gpt-5.1-codex
-
11月13日 extended prompt caching
- extended prompt cache retention を公開
- cached prefix をより長く、最長24時間までアクティブな状態で維持
- メモリがいっぱいになると、key/value tensor を GPU ローカルストレージにオフロードして、キャッシュ可能な保存容量を大幅に拡大
2025年10月
-
10月29日
gpt-oss-safeguard-120bとgpt-oss-safeguard-20bは、gpt-oss 上に構築された safety reasoning モデル- 詳細: gpt-oss-safeguard collection
-
10月24日
- Enterprise Key Management (EKM) を公開
- EKM により、外部の Key Management System(KMS) で管理されるキーを使って、OpenAI 内の顧客コンテンツを暗号化できる
- UK data residency も公開
-
10月6日 OpenAI DevDay
- OpenAI DevDay で複数の機能を公開
- gpt-5-pro を公開
- GPT-5 より多くの計算を使って、より深く考え、より一貫して優れた回答を提供する
- gpt-realtime-mini と gpt-audio-mini を、よりコスト効率の高い speech-to-speech 性能向けに公開
- gpt-image-1-mini を、よりコスト効率の高い画像生成および編集向けに公開
- 最新の Sora 2 と Sora 2 Pro モデルにより、リッチで精細かつ動的な動画生成と remix のための v1/videos を公開
- カスタム multi-agent workflow を視覚的に作成できる Agent Builder を公開
- agent デプロイ用の埋め込み型チャットインターフェース ChatKit を公開
- Trace Evals, Datasets, and Prompt Optimization tools を公開
- Evals に Third-Party Model Support を追加
- Service health dashboard を公開
-
10月1日
- IP allowlist を公開
- 指定した IP アドレスまたは範囲からのみ API にアクセスできるよう制限
2025年9月
-
9月26日
- Responses API の tool call output で画像とファイルをサポート
-
9月23日
- gpt-5-codex を特殊用途モデルとして公開
- Codex CLI の利用に合わせて構築・最適化
2025年8月
-
8月28日
- OpenAI Realtime API が正式リリース
- 詳細: Realtime API guide
-
8月21日
- Responses API に connectors のサポートを追加
- connector は Google アプリ、Dropbox などの人気サービス向け OpenAI 管理の MCP wrapper で、各サービスに保存されたデータへのモデルの読み取りアクセスに利用できる
-
8月20日
- Conversations API を公開
- Responses API とあわせて長時間実行される会話を作成・管理できる
- Assistants API 統合から Responses と Conversations へ移行する方法や横並びの比較は、migration guide で確認できる
-
8月7日
- API に GPT-5 系列モデル gpt-5, gpt-5-mini, gpt-5-nano を公開
- reasoning をサポートする GPT-5 モデルで、高速応答の最適化に向けた
minimalの reasoning effort 値を導入 - 自由形式の入力と出力を許可する
customtool call タイプを導入
2025年6月
-
6月27日
- Priority processing のサポートを開始
- Standard processingよりレイテンシが大幅に低く、より一貫しており、従量課金の柔軟性は維持
-
6月24日
- o3-deep-research と o4-mini-deep-research をResponses APIで提供開始
- o-series reasoningモデルのdeep research派生版で、深い分析とリサーチ作業向けに最適化
- 詳細: deep research guide
- webhooks による非同期イベント処理のサポートを追加
- Web検索ツールの価格を引き下げて簡素化
- web search tool のサポートを追加
-
6月13日
- 新しい reusable prompts をDashboardとResponses APIで利用可能に
- APIでは
promptパラメータでDashboardで作成したテンプレートを参照でき、promptid、任意のversion、文字列・画像・ファイル入力を含められる動的なvariablesをあわせて渡せる - reusable promptsはChat Completionsでは利用不可
- 詳細: reusable prompts
-
6月10日
-
6月4日
gpt-4.1-2025-04-14、gpt-4.1-mini-2025-04-14、gpt-4.1-nano-2025-04-14に、direct preference optimization を活用したfine-tuningのサポートを追加
-
6月3日
- gpt-4o-audio-preview と gpt-4o-realtime-preview の新しいモデルスナップショットを提供
- Agents SDK for TypeScript を公開
2025年5月
-
5月20日 内蔵ツール
- Responses APIに新しい内蔵ツールを追加
- remote MCP servers と code interpreter を含む
- 詳細: tools
-
5月20日 schema
- Responses APIとChat Completions APIで、fine-tuningされていないモデルの並列tool calling時にtool schemaで
strictモードを利用可能に - 新しい schema features も追加し、
emailやその他パターン向けの文字列検証、数値と配列の範囲指定を含む
- Responses APIとChat Completions APIで、fine-tuningされていないモデルの並列tool calling時にtool schemaで
-
5月15日
- codex-mini-latest をAPIで提供開始
- Codex CLI の利用に最適化
-
5月7日
- reinforcement fine-tuning のサポートを開始
- 利用可能なfine-tuning方式は fine-tuning guide で確認可能
- gpt-4.1-nano をfine-tuning対応モデルに追加
2025年4月
-
4月30日
-
4月23日
- 画像生成モデル
gpt-image-1を追加 - このモデルは品質とinstruction followingが改善され、画像生成の新たな基準に
- Image GenerationおよびEditエンドポイントも、
gpt-image-1専用の新しいパラメータをサポートするよう更新
- 画像生成モデル
-
4月16日
o3とo4-miniの2つのo-series reasoningモデルをChat Completions APIとResponses APIに追加- 数学、科学、コーディング、視覚的reasoningタスク、技術文書作成で新たな基準に
- コード生成CLIツールCodexも公開
-
4月14日
- gpt-4.1、gpt-4.1-mini、gpt-4.1-nano をAPIに追加
- instruction following、コーディング、最大100万トークンのより大きなコンテキストウィンドウを提供
gpt-4.1とgpt-4.1-miniはsupervised fine-tuningが可能- gpt-4.5-preview の提供終了も発表
2025年3月
-
3月20日
- Audio APIに
gpt-4o-mini-tts、gpt-4o-transcribe、gpt-4o-mini-transcribe、whisper-1モデルを追加
- Audio APIに
-
3月19日
-
3月11日
- agentic workflow向けに複数の新モデルとツール、新APIを提供開始
- Responses APIを提供開始し、agentとツールを構築・利用可能に
- Responses API向けの組み込みツールセットとして、web search、file search、computer useを提供開始
- agentの設計、構築、デプロイのためのorchestration frameworkであるAgents SDKを提供開始
gpt-4o-search-preview、gpt-4o-mini-search-preview、computer-use-previewモデルを発表- Assistants APIの全機能を、より使いやすいResponses APIへ移行する計画を明らかにし、機能の完全な同等性を達成した後、2026年にAssistantsを終了予定であることを告知
-
3月3日
- fine-tuning jobで
metadataフィールドのサポートを追加
- fine-tuning jobで
2025年2月
-
2月27日
- GPT-4.5を研究プレビューとしてChat Completions API、Assistants API、Batch APIで提供開始
- GPT-4.5は最大かつ最高性能のチャットモデルとして紹介されており、高いEQとユーザー意図の理解に基づいて、創造的作業やagentic planningにより強みを持つ
-
2月25日
- API Usage Dashboard Updateを公開
- プロジェクト選択、日付選択ツール、細かな時間間隔など、追加のデータフィルター要望を反映
- 異なる製品やサービスティア全体にわたる利用状況を、より見やすく確認可能に
-
2月5日
- 欧州データレジデンシーを導入
- 詳細: your data
2025年1月
-
1月31日
- o3-miniを小規模reasoningモデルとして提供開始
- 科学、数学、コーディング作業向けに最適化
-
1月21日
- o1 modelのアクセス範囲を拡大
- o1系列モデルは、複雑なreasoningを行うよう強化学習で訓練されている
2024年12月
-
12月18日
- Admin API Key Rotationsを提供開始し、admin API keyをプログラムでローテーション可能に
- Admin API Invitesを更新し、組織への招待と同時にプロジェクトへユーザーをプログラムで招待可能に
-
12月17日
- o1、gpt-4o-realtime、gpt-4o-audioなどの新モデルを追加
- Realtime APIにWebRTC接続方式を追加
- o1モデルにreasoning_effort parameterを追加
- o1モデルにdeveloper message roleを追加
o1-previewとo1-miniはsystemまたはdeveloper messageをサポートしない- Direct Preference Optimization (DPO)を用いたPreference Fine-tuningを提供開始
- GoおよびJava向けbeta SDKを提供開始
- 詳細: libraries
- Python SDKにRealtime APIのサポートを追加
-
12月4日
- Usage APIを提供開始
- OpenAI API全体のアクティビティと支出をプログラムで確認可能に
2024年11月
-
11月20日
- gpt-4o-2024-11-20を
v1/chat/completionsで提供開始 - gpt-4o系列の最新モデル
- gpt-4o-2024-11-20を
-
11月4日
- Predicted Outputsを提供開始
- 応答のかなりの部分を事前に把握している状況で、モデル応答のレイテンシを大幅に削減
- ドキュメントやコードファイルの内容を、わずかな変更だけ加えて再生成する際に特によく使われる
2024年10月
-
10月30日
- Realtime APIとChat Completions APIに新しい音声タイプ5種を追加
- 対象モデルは
gpt-4o-realtime-preview、gpt-4o-audio-previewで、エンドポイントとしてv1/chat/completionsも併記
-
10月17日
- 新しい
gpt-4o-audio-previewモデルを公開 - Chat Completionsで音声入力と出力の両方をサポート
- このモデルはRealtime APIと同じベースモデルを使用
- 新しい
-
10月1日 OpenAI DevDay in San Francisco
- OpenAI DevDay in San Franciscoで複数の機能を同時に公開
- Realtime APIはWebSocketsインターフェースにより、高速なspeech-to-speech体験をアプリケーションに構築できるようにする
- Model distillationは、大規模なfrontierモデルの出力を活用してコスト効率の高いモデルをファインチューニングできるようにする
- Image fine-tuningは、画像とテキストでGPT-4oをファインチューニングし、視覚機能を改善できるようにする
- Evalsは、特定タスクにおけるモデル性能を測定するカスタム評価の実行機能を提供
- Prompt cachingは、直近で見た入力トークンに対して割引とより高速な処理時間を提供
- Generate in playgroundは、Generateボタンでプロンプト、関数定義、構造化出力スキーマを簡単に生成できるようにする
2024年9月
-
9月26日
- 新しい
omni-moderation-latestモデレーションモデルを公開 - 画像とテキストをサポートし、一部カテゴリではテキストと画像をあわせて扱う
- 新しいテキスト専用のharmカテゴリ2種をサポートし、スコア精度も向上
- 新しい
-
9月12日
- o1-previewとo1-miniを公開
- 両モデルは強化学習で訓練された新しい大規模言語モデルで、複雑な推論タスクの実行を目指す
- エンドポイントは
v1/chat/completionsと記載
2024年8月
-
8月29日
- Assistants APIが、file search toolで使用した検索結果の含有機能とランキング動作のカスタマイズをサポートするようになった
-
8月20日
gpt-4o-2024-08-06のファインチューニングがGAに移行し、すべてのAPIユーザーが最新のGPT-4oモデルをファインチューニングできるようになった
-
8月15日
chatgpt-4o-latest向け動的モデルを公開し、ChatGPTが使用する最新のGPT-4oモデルを指すよう設定された
-
8月6日
- Structured Outputsをリリースし、モデル出力が開発者提供のJSON Schemaに確実に従うようにした
- 同日、gpt-4o-2024-08-06もgpt-4oシリーズの最新モデルとして公開
-
8月1日
- Admin and Audit Log APIsをリリースし、組織をプログラムで管理し、audit logで変更を監視できるようにした
- Audit loggingはsettings内で有効化する必要がある
2024年7月
-
7月24日
- self-serve SSO configurationをリリース
- Enterprise顧客のうち、customおよびunlimited billing利用者が希望するIDPに合わせた認証を設定できる
-
7月23日
- GPT-4o miniのファインチューニングをリリースし、特定のユースケースでより高い性能を狙えるようにした
-
7月18日
- GPT-4o miniを公開
- 高速で軽量な処理向けの低コスト小型モデルとして紹介
-
7月17日
- Uploadsをリリースし、大きなファイルを複数パートに分けてアップロードできるようにした
2024年6月
-
6月6日
-
6月3日
- file search customizationsのサポートを追加
2024年5月
-
5月15日
- プロジェクトアーカイブのサポートが追加され、アクセスできるのはorganization ownerのみ
- 従量課金の顧客向けに、プロジェクトごとのコスト上限設定のサポートも追加
-
5月13日
- GPT-4oをAPIでリリース
- 最速かつ最も安価なflagshipモデルとされている
-
5月9日
- Assistants APIが画像入力をサポート
-
5月7日
- Batch APIがファインチューニング済みモデルをサポート
-
5月6日
- Chat Completions APIとCompletions APIに
stream_options: {"include_usage": true}パラメータを追加 - この設定を使うと、ストリーミング利用時にusage統計へアクセス可能
- Chat Completions APIとCompletions APIに
-
5月2日
- Assistants APIでスレッドのメッセージを削除する新しいエンドポイントを追加
2024年4月
-
4月29日
- Chat Completions APIとAssistants APIにfunction callingオプション
tool_choice: "required"を追加 - Batch APIガイドと、Batch APIのembeddingsモデル対応もあわせて追加
- Chat Completions APIとAssistants APIにfunction callingオプション
-
4月17日
- Assistants APIの更新一式を導入
- 新しいfile search toolは、assistantごとに最大10,000ファイルを許容
- 新しいtoken controlsとtool choiceのサポートも含まれる
-
4月16日
- プロジェクトベースの階層構造を導入し、プロジェクトごとに作業を整理できるようにした
- API keysを作成可能
- プロジェクトごとのrate limitとcost limitを管理でき、cost limitはEnterprise顧客のみに提供
-
4月15日
- Batch APIをリリース
-
4月9日
- GPT-4 Turbo with VisionがAPIでgeneral availabilityに移行
-
4月4日
- ファインチューニングAPIにseedのサポートを追加
- ファインチューニングAPIにcheckpointsのサポートを追加
- Assistants APIでRun作成時にMessagesの追加をサポート
-
4月1日
- Assistants APIでrun_idによるMessagesのフィルタリングをサポート
2024年3月
-
3月29日
- Assistants APIにtemperatureとassistant message作成のサポートを追加
-
3月14日
- Assistants APIにstreamingのサポートを追加
2024年2月
-
2月9日
- Audio APIに
timestamp_granularitiesパラメータを追加
- Audio APIに
-
2月1日
- gpt-3.5-turbo-0125を更新版GPT-3.5 Turboモデルとしてリリース
2024年1月
-
1月25日
- embedding V3モデルと、更新版GPT-4 Turbo previewを公開
- Embeddings APIに
dimensionsパラメータを追加
2023年12月
-
12月20日
- Assistants APIのRun作成に
additional_instructionsパラメータを追加
- Assistants APIのRun作成に
-
12月15日
- Chat Completions APIに
logprobsとtop_logprobsパラメータを追加
- Chat Completions APIに
-
12月14日
- tool callのfunction parameters引数が任意に変更
2023年11月
-
11月30日
-
11月6日
- 複数の項目を同時に公開
- GPT-4 Turbo Preview
- 更新版GPT-3.5 Turbo
- GPT-4 Turbo with Vision
- Assistants API
- DALL·E 3 in the API
- text-to-speech API
- Chat Completionsの
functionsパラメータは、toolsに置き換えられる方向で非推奨扱いとなった - OpenAI Python SDK V1.0を公開
2023年10月
-
10月16日
- Embeddings APIに
encoding_formatパラメータを追加 - Moderation modelsに
max_tokensを追加
- Embeddings APIに
-
10月6日
- Fine-tuning APIにfunction callingのサポートを追加
2件のコメント
これで 5.4 からは、pro はもはや Chat Completions API では提供されないんですね
Hacker Newsの反応
本番の問題対応でさっそく使ってみたけど、Claudeはこういうことをしなかったのに、GPT-5.5はやった。
トラブルシューティングのあとに update 文を書かせて、私が「よし、これを transaction で包んで rollback も入れよう」と言ったら、昔ながらのやり方で
BEGIN TRAN;-- put the query herecommit;とだけ返してきた。
しばらくモデルに対して、頼んだことを本当にやれともう一度押し返す必要はなかったのに、これはかなり衝撃だった。
トークンを節約したいのは分かるけど、最先端モデルに金を払っているのに、こういうふうに怠けた出し方をされると腹が立つ。
Cursor のモデル選択に出ていたので、そのまま試しただけ。
返答で
-- put the query hereしか入れず、クエリを繰り返さなかったことが問題なら、それは必ずしも問題とは思わない。実際の目的が実行するクエリを受け取ることで、「これを transaction にしよう」と言ったのなら、
beginを先に打てばいいと教えるのはかなり合理的。クエリが長ければトークンも節約できるし、
permission deniedが出たときにコマンド全体を書き直す代わりに先頭へsudoを付けろと言うのと似ている。逆に、モデルが実際にクエリを実行してくれることを期待していたのに、「ここにあるから自分で実行して」という感じで出してきたなら、それは確かに怠慢で、戸惑うのも分かる。
emergent behavior がこういう形で出るのかと思った。
冗談はさておき、OpenAI が執着するように推している tokenあたりの intelligence 中心の最適化は、M1 以前の Apple が MacBook を極端に薄くすることにこだわっていた時代を思い出す。
たった一つの指標だけを最後まで追いかけて、他を全部犠牲にしている感じだ。
GPT-5.3+ は間違いなく最も賢い部類のモデルだが、怠けすぎていて一緒に仕事をするのがつらいことが多い。
さっき自分の Wordpress+GravityForms benchmark で回してみたけど、性能面でもリーダーボード最下位クラスで、コスパは最悪だった: https://github.com/guilamu/llms-wordpress-plugin-benchmark
ベンチマークが一つだけなのは分かっているけど、どうしてここまで悪くなれるのか理解できない。
最近は言葉の意味があまりにも簡単に崩れるので、こういうことがよくある。
昔は実際に技術の仕事をしていた人が多かったフォーラムも、今では vibe researcher の大衆で埋まっていく雰囲気があるし、人気の閾値を超えると元々こうなりがちだ。
HN もまだ真面目な探究が残る最後の砦っぽいけど、元コメントを見る限り完全に免疫があるわけではない。
こういう benchmarking はかなり気に入った。
judge benchmark をどう評価したのか気になるし、自分でも似たようなベンチマークを組んでみたい。
プロンプトは極端に薄いのに、採点項目はものすごく多い。
コンテキスト長ごとの価格はこうだった。
入力は 272K 以下 $5/M、それ以上 $10/M
出力は 272K 以下 $30/M、それ以上 $45/M
キャッシュ読み取りは 272K 以下 $0.50/M、それ以上 $1/M
272K を超えると Opus 4.7 より明らかに高く、少なくとも自分の作業ではそれだけトークン効率が良いようには見えなかった。
この価格差を相殺できるほどではなかった。
GPT-5.4は 400k コンテキストと信頼できる compaction が強みだったのに、どちらもやや後退したように見える。
ただ、compaction の信頼性が実際に落ちたのかはまだ断定しにくい。
フロントエンド出力も、相変わらずあの目立つカードを大量に並べた青系テンプレート寄りになりがちだ。
GPT-5 リリース前の Horizon Alpha/Beta の頃から怪しく見えていたスタイルだけど、そのときは task adherence がとても良かったので、その大きな欠点ひとつを受け入れても有用だった。
それなのに GPT-5.5 が完全に新しい foundation だと言いながら、その部分がまだこんなに制限されているのは少し妙だ。
GPT 5.5 の総合的なコーディング推論ベンチマーク結果が https://gertlabs.com/ に上がっている。
live decision と、より重い agentic eval も今後24時間かけて追加され続ける予定だが、もうリーダーボード順位は変わらなさそうだ。
GPT 5.5 は公開モデルの中で最も知能的で、前作より明らかに速い。
昨日はこう言っていた。
https://simonwillison.net/2026/Apr/23/gpt-5-5/#the-openclaw-backdoor
その事実が今回の公開を早めたのかもしれないと思う。
前例もある。
自分だけかもしれないけど、OpenAI はこういうニュースのたびに有償コメント要員やボットを回して Claude を貶し、Codex のほうがはるかに良いと押している感じがする。
数が多すぎるし、Claude を毎日使っていると納得できない主張もかなり多い。
OpenAI が監督なしの自律兵器や国内の大規模監視に協力することで民主主義を裏切った、という事実さえみんな忘れたような雰囲気に似ている。
少なくとも表に出始めたのは Opus 4.6 hype の直後だった。
最近は自社製品を押す会社はみんな似たようなものだ。
Enterprise ユーザーだけど、まだ 5.4 しか見えない。
昨日の告知では全員への rollout まで数時間かかると言っていたけど、OpenAI は期待値管理のために GTM をもう少しうまくやるべきだ。
すばやく展開されたのはいいね。
次はもっと早く文句を言うことにする。
自分の benchmark で 25/25 を取った2つ目のモデルだ。
最初は Opus 4.7 で、結果はここ: https://sql-benchmark.nicklothian.com/?highlight=openai_gpt-5.5
Opus より安くて遅い。
API ページには knowledge cutoff が 2025-12-01 と書かれているのに、モデル自身に聞くと 2024年6月 と答える。
Knowledge cutoff: 2024-06Current date: 2026-04-24You are an AI assistant accessed via an API.cutoff 日付を確認するのにモデル本人へ聞くのは、昔から最も信頼性の低い方法だった。
こういうコメント自体を学習している可能性すらある。
単に 2025-12-01 の直前に起きた出来事を一つ聞けばいい。
できれば スポーツの試合 がよい。
昔のモデル API ページにも 2024年6月 cutoff と多く書かれていたので、それを拾って言っているだけかもしれない。
本当の cutoff を確認する正しい方法は、その日付以前には存在しなかった、あるいは起きていなかった出来事を尋ねることだ。
ざっと何回か試した感じだと、5.5 の一般知識 cutoff はまだ 2025年初め頃に見える。
GPT 5.5 + Codex の組み合わせは本当に良い。
質問するときも、計画を立てるときも、コードを実装するときも、今ではほぼ疑いなく任せている。
Opus 4.7 はずっと再確認したくなる。
CLAUDE.mdの指示にあまり従わないし、hallucination も多く、答えが見つからないと基本的に作り話をする方向なので、その差はかなり大きい。去年、人々が OpenAI は遅れている、code red だと言っていたのは本当に一瞬だったが、今振り返ると状況は完全に変わった。