5 ポイント 投稿者 GN⁺ 4 일 전 | 2件のコメント | WhatsAppで共有
  • GPT-5.5は、Chat Completions APIとResponses APIに追加された最新モデルで、GPT-5.5 proは、より多くの計算資源が有利な難問向けとしてResponses APIリクエストにあわせて追加された
  • 100万トークンのコンテキストウィンドウと画像入力、構造化出力、関数呼び出し、プロンプトキャッシュ、Batch、tool search、組み込みcomputer use、hosted shell、apply patch、Skills、MCP、Web検索まで幅広くサポートする
  • デフォルトのreasoning effort値はmediumに設定され、image_detailが未設定またはautoのときは従来の動作を維持する
  • GPT-5.5のキャッシュはextended prompt cachingでのみ動作し、in-memory prompt cachingはサポートしない
  • 最近のAPI変更の流れは、モデル公開を超えてimage、audio、realtime、video、agentツールまで拡大しており、GPT-5.5系はその中でも最新の主力追加項目に位置付けられる

変更ログ

2026年4月

  • 4月24日

    • GPT-5.5をChat Completions APIとResponses APIに公開し、より多くの計算資源が有利な難問向けとしてGPT-5.5 proをResponses APIリクエストにあわせて追加した
    • GPT-5.5は、100万トークンのコンテキストウィンドウ、画像入力、構造化出力、関数呼び出し、プロンプトキャッシュ、Batch、tool search、組み込みcomputer use、hosted shell、apply patch、Skills、MCP、Web検索をサポートする
    • 主な変更点として、reasoning effortのデフォルト値がmediumに設定された
    • image_detailが未設定またはautoのときは、従来の動作を使用する
    • GPT-5.5のキャッシュはextended prompt cachingでのみ動作し、in-memory prompt cachingはサポートしない
  • 4月21日

    • GPT Image 2を、画像生成と編集向けの最新画像生成モデルとして公開した
    • GPT Image 2は、柔軟な画像サイズ、高忠実度の画像入力、トークンベースの画像課金、50%割引のBatch APIサポートを含む
  • 4月15日

    • Agents SDKに新機能を追加した
      • 制御されたサンドボックスでagentを実行できる
      • オープンソースのharnessを確認し、カスタマイズできる
      • memoryの生成時点と保存場所を制御できる

2026年3月

  • 3月17日

    • GPT-5.4 miniGPT-5.4 nanoをChat Completions APIとResponses APIに公開した
    • GPT-5.4 miniは、GPT-5.4級の性能をより高速かつ効率的な形で提供し、大規模スループットのワークロード向けに最適化されている
    • GPT-5.4 nanoは、速度とコストが最重要となる単純な大量処理向けに最適化されている
    • GPT-5.4 miniはtool search、組み込みcomputer usecompactionをサポートする
    • GPT-5.4 nanoはcompactionはサポートするが、tool searchとcomputer useはサポートしない
  • 3月16日

    • gpt-5.3-chat-latestのslugが、現在ChatGPTで使用されている最新モデルを指すように更新された
  • 3月13日

    • GPT-5.4のinput_image入力で発生していた小さなバグを修正するため、画像エンコーダを更新した
    • 一部の画像理解ユースケースで品質が改善される可能性がある
    • 特別な対応は不要
  • 3月12日

    • Sora APIを拡張し、再利用可能なcharacter reference、最大20秒までのより長い生成、sora-2-pro向け1080p出力、video extension、POST /v1/videos向けBatch APIサポートを追加した
    • sora-2-pro1080p生成は1秒あたり$0.70で課金される
    • 詳細: video generation guide
  • 3月12日 更新

    • 既存動画の編集用としてPOST /v1/videos/editsを追加した
    • POST /v1/videos/{video_id}/remixはこれを置き換えるパスで、6か月後にサポート終了予定
    • 詳細: edit existing videos
  • 3月5日

    • GPT-5.4をChat Completions APIとResponses APIに公開し、より多くの計算資源が有利な難問向けとしてGPT-5.4 proをResponses APIに追加した
    • Responses APIのtool searchもあわせて公開し、モデルが大規模なtool surfaceを実行時まで先送りしてトークン使用量を削減し、キャッシュ性能を維持しつつレイテンシを改善できるようにした
    • GPT-5.4に、Responses APIのcomputerツールを通じた組み込みcomputer useサポートを追加し、スクリーンショットベースのUI操作が可能になった
    • より長時間実行されるagentワークフロー向けに、100万トークンのコンテキストウィンドウとネイティブCompactionサポートを提供する
  • 3月3日

    • gpt-5.3-chat-latestをChat Completions APIとResponses APIに公開した
    • このモデルは、現在ChatGPTで使用中のGPT-5.3 Instantスナップショットを指す
    • 詳細: gpt-5.3-chat-latest

2026年2月

  • 2月24日

    • input_file の対応範囲を拡大し、より多くの文書、プレゼンテーション、スプレッドシート、コード、テキストファイル形式を受け取れるようにした
    • 詳細: file inputs
  • 2月24日 Responses API

    • Responses API に phase を追加
    • assistant メッセージを中間解説 commentary と最終回答 final_answer に分けてラベル付け
    • 詳細: phase
  • 2月24日 gpt-5.3-codex

    • gpt-5.3-codex を Responses API に公開
    • 詳細: gpt-5.3-codex
  • 2月23日

  • 2月23日 オーディオおよびリアルタイムモデル

  • 2月10日 GPT Image Batch

    • Batch APIgpt-image-1.5, chatgpt-image-latest, gpt-image-1, gpt-image-1-mini に対応
  • 2月10日 gpt-5.2-chat-latest

    • gpt-5.2-chat-latest slug が、現在 ChatGPT で使われている最新モデルを指すよう更新された
  • 2月10日 compaction

  • 2月10日 Skills

    • Responses API に Skills のサポートを導入
    • ローカル実行と hosted container ベース実行の両方で Skills をサポート
  • 2月10日 Hosted Shell

    • 新しい Hosted Shell ツールを導入し、コンテナ内ネットワーキングもサポート
  • 2月9日

    • GPT image モデルの /v1/images/editsapplication/json リクエスト対応を追加
    • JSON リクエストでは、multipart upload の代わりに images と任意の maskimage_url または file_id 参照を使用
  • 2月3日

    • API 顧客向け推論スタックを最適化し、GPT-5.2GPT-5.2-Codex の実行速度が約 40% 向上
    • モデルおよびモデル重みは変更なし

2026年1月

  • 1月15日

    • Open Responses を発表
    • OpenAI Responses API 上に構築された、マルチプロバイダー相互運用 LLM インターフェース向けのオープンソース仕様
  • 1月14日

    • gpt-5.2-codex を Responses API に公開
    • GPT-5.2-Codex は、Codex または類似環境での agentic coding 作業向けに最適化された GPT-5.2 の派生モデル
    • 詳細: gpt-5.2-codex
  • 1月13日 Realtime SIP

    • Realtime API に専用 SIP IP range を追加
    • sip.api.openai.com は GeoIP ルーティングを行い、SIP トラフィックを最寄りのリージョンに送る
    • 詳細: dedicated SIP IP ranges
  • 1月13日 モデル slug 更新

    • gpt-realtime-minigpt-audio-mini の slug は 2025-12-15 スナップショットを指すよう更新された
    • 以前のモデルスナップショットが必要な場合は、gpt-realtime-mini-2025-10-06gpt-audio-mini-2025-10-06 を使用できる
    • sora-2 の slug は sora-2-2025-12-08 を指すよう更新された
    • 以前の sora-2 スナップショットが必要な場合は、sora-2-2025-10-06 を使用できる
    • gpt-4o-mini-ttsgpt-4o-mini-transcribe の slug は 2025-12-15 スナップショットを指すよう更新された
    • 以前のモデルスナップショットが必要な場合は、gpt-4o-mini-tts-2025-03-20gpt-4o-mini-transcribe-2025-03-20 を使用できる
    • 現在最良の結果を得るには、gpt-4o-transcribe より gpt-4o-mini-transcribe の使用を推奨
  • 1月9日

    • /v1/images/edits で、gpt-image-1.5chatgpt-image-latestfidelity を明示的に low に設定しても誤って high fidelity を使用していた問題を修正

2025年12月

  • 12月19日

    • gpt-image-1.5chatgpt-image-latest を Responses API の画像生成ツールに追加
  • 12月16日

  • 12月15日

    • 新しい日付付きオーディオスナップショット4種を公開
    • このアップデートにより、リアルタイム音声ベースアプリケーションの信頼性、品質、音声忠実度が向上
    • 詳細: updates audio models
    • gpt-realtime-mini-2025-12-15
    • gpt-audio-mini-2025-12-15
    • gpt-4o-mini-transcribe-2025-12-15
    • gpt-4o-mini-tts-2025-12-15
    • 今回の公開には、対象顧客向けの Custom voices サポートも含まれる
  • 12月11日 GPT-5.2

    • GPT-5.2 を GPT-5 系列の最新 flagship モデルとして公開
    • GPT-5.1比で、一般知能、指示追従、精度とトークン効率、マルチモーダル性、とくにビジョン、コード生成、とくにフロントエンドUI生成、API の tool calling と context 管理、スプレッドシートの理解と生成が改善
    • xhigh reasoning effort レベル、簡潔な reasoning summary、compaction を活用した新しい context 管理を追加
  • 12月11日 client-side compaction

    • client-side compaction を公開
    • Responses API の長時間実行される会話で、/responses/compact エンドポイントにより各ターンで送るコンテキストを減らせる
  • 12月4日

    • gpt-5.1-codex-max を Responses API で公開
    • GPT-5.1-Codex は、長期的な agentic coding 作業に最適化された最も高性能なコーディングモデル
    • 詳細: gpt-5.1-codex-max

2025年11月

  • 11月20日

    • Realtime API に DTMF キー入力のサポートを追加
    • Realtime sideband connection の使用中に DTMF イベントを受信可能
    • 詳細: dtmf_event_received
  • 11月13日 GPT-5.1

    • GPT-5.1 を GPT-5 系列の最新 flagship モデルとして公開
    • とくに steerability、あまり考える必要がない状況でのより高速な応答、コード生成とコーディング用途、agentic workflow に強くなるよう学習
    • GPT-5.1 は、あまり考える必要がない状況で高速に応答するため、新しい none reasoning 設定をデフォルトで使用
    • このデフォルト値は、GPT-5 の従来のデフォルト medium とは異なる
  • 11月13日 RBAC

  • 11月13日 GPT-5.1-Codex

    • gpt-5.1-codexgpt-5.1-codex-mini を Responses API で公開
    • GPT-5.1-Codex は、Codex または類似環境における agentic coding 作業向けに最適化された GPT-5.1 の派生モデル
    • 詳細: gpt-5.1-codex
  • 11月13日 extended prompt caching

    • extended prompt cache retention を公開
    • cached prefix をより長く、最長24時間までアクティブな状態で維持
    • メモリがいっぱいになると、key/value tensor を GPU ローカルストレージにオフロードして、キャッシュ可能な保存容量を大幅に拡大

2025年10月

2025年9月

  • 9月26日

  • 9月23日

    • gpt-5-codex を特殊用途モデルとして公開
    • Codex CLI の利用に合わせて構築・最適化

2025年8月

  • 8月28日

  • 8月21日

    • Responses API に connectors のサポートを追加
    • connector は Google アプリ、Dropbox などの人気サービス向け OpenAI 管理の MCP wrapper で、各サービスに保存されたデータへのモデルの読み取りアクセスに利用できる
  • 8月20日

    • Conversations API を公開
    • Responses API とあわせて長時間実行される会話を作成・管理できる
    • Assistants API 統合から Responses と Conversations へ移行する方法や横並びの比較は、migration guide で確認できる
  • 8月7日

    • API に GPT-5 系列モデル gpt-5, gpt-5-mini, gpt-5-nano を公開
    • reasoning をサポートする GPT-5 モデルで、高速応答の最適化に向けた minimalreasoning effort 値を導入
    • 自由形式の入力と出力を許可する custom tool call タイプを導入

2025年6月

  • 6月27日

    • Priority processing のサポートを開始
    • Standard processingよりレイテンシが大幅に低く、より一貫しており、従量課金の柔軟性は維持
  • 6月24日

  • 6月13日

    • 新しい reusable prompts をDashboardとResponses APIで利用可能に
    • APIでは prompt パラメータでDashboardで作成したテンプレートを参照でき、prompt id、任意の version、文字列・画像・ファイル入力を含められる動的な variables をあわせて渡せる
    • reusable promptsはChat Completionsでは利用不可
    • 詳細: reusable prompts
  • 6月10日

    • o3-pro をResponses APIとBatch APIで提供開始
    • o3 reasoningモデルより多くの計算資源を使い、難しい問題に対してより優れたreasoningと一貫性で回答するよう設計
    • すべてのAPIリクエストでo3モデルの価格を引き下げ、batchとflex processingも含む
  • 6月4日

    • gpt-4.1-2025-04-14gpt-4.1-mini-2025-04-14gpt-4.1-nano-2025-04-14 に、direct preference optimization を活用したfine-tuningのサポートを追加
  • 6月3日

2025年5月

  • 5月20日 内蔵ツール

  • 5月20日 schema

    • Responses APIとChat Completions APIで、fine-tuningされていないモデルの並列tool calling時にtool schemaで strict モードを利用可能に
    • 新しい schema features も追加し、email やその他パターン向けの文字列検証、数値と配列の範囲指定を含む
  • 5月15日

  • 5月7日

2025年4月

  • 4月30日

  • 4月23日

    • 画像生成モデル gpt-image-1 を追加
    • このモデルは品質とinstruction followingが改善され、画像生成の新たな基準に
    • Image GenerationおよびEditエンドポイントも、gpt-image-1 専用の新しいパラメータをサポートするよう更新
  • 4月16日

    • o3o4-mini の2つのo-series reasoningモデルをChat Completions APIとResponses APIに追加
    • 数学、科学、コーディング、視覚的reasoningタスク、技術文書作成で新たな基準に
    • コード生成CLIツールCodexも公開
  • 4月14日

    • gpt-4.1gpt-4.1-minigpt-4.1-nano をAPIに追加
    • instruction following、コーディング、最大100万トークンのより大きなコンテキストウィンドウを提供
    • gpt-4.1gpt-4.1-mini はsupervised fine-tuningが可能
    • gpt-4.5-preview の提供終了も発表

2025年3月

  • 3月20日

    • Audio APIにgpt-4o-mini-ttsgpt-4o-transcribegpt-4o-mini-transcribewhisper-1モデルを追加
  • 3月19日

    • o1-proをResponses APIとBatch APIで提供開始
    • o1 reasoningモデルより多くの計算を使用し、難しい問題に対してより優れたreasoningと一貫性で回答するよう設計
  • 3月11日

    • agentic workflow向けに複数の新モデルとツール、新APIを提供開始
    • Responses APIを提供開始し、agentとツールを構築・利用可能に
    • Responses API向けの組み込みツールセットとして、web searchfile searchcomputer useを提供開始
    • agentの設計、構築、デプロイのためのorchestration frameworkであるAgents SDKを提供開始
    • gpt-4o-search-previewgpt-4o-mini-search-previewcomputer-use-previewモデルを発表
    • Assistants APIの全機能を、より使いやすいResponses APIへ移行する計画を明らかにし、機能の完全な同等性を達成した後、2026年にAssistantsを終了予定であることを告知
  • 3月3日

    • fine-tuning jobでmetadataフィールドのサポートを追加

2025年2月

  • 2月27日

    • GPT-4.5を研究プレビューとしてChat Completions API、Assistants API、Batch APIで提供開始
    • GPT-4.5は最大かつ最高性能のチャットモデルとして紹介されており、高いEQとユーザー意図の理解に基づいて、創造的作業やagentic planningにより強みを持つ
  • 2月25日

    • API Usage Dashboard Updateを公開
    • プロジェクト選択、日付選択ツール、細かな時間間隔など、追加のデータフィルター要望を反映
    • 異なる製品やサービスティア全体にわたる利用状況を、より見やすく確認可能に
  • 2月5日

    • 欧州データレジデンシーを導入
    • 詳細: your data

2025年1月

  • 1月31日

    • o3-miniを小規模reasoningモデルとして提供開始
    • 科学、数学、コーディング作業向けに最適化
  • 1月21日

    • o1 modelのアクセス範囲を拡大
    • o1系列モデルは、複雑なreasoningを行うよう強化学習で訓練されている

2024年12月

2024年11月

  • 11月20日

    • gpt-4o-2024-11-20v1/chat/completionsで提供開始
    • gpt-4o系列の最新モデル
  • 11月4日

    • Predicted Outputsを提供開始
    • 応答のかなりの部分を事前に把握している状況で、モデル応答のレイテンシを大幅に削減
    • ドキュメントやコードファイルの内容を、わずかな変更だけ加えて再生成する際に特によく使われる

2024年10月

  • 10月30日

    • Realtime APIChat Completions API新しい音声タイプ5種を追加
    • 対象モデルはgpt-4o-realtime-previewgpt-4o-audio-previewで、エンドポイントとしてv1/chat/completionsも併記
  • 10月17日

  • 10月1日 OpenAI DevDay in San Francisco

    • OpenAI DevDay in San Franciscoで複数の機能を同時に公開
    • Realtime APIWebSocketsインターフェースにより、高速なspeech-to-speech体験をアプリケーションに構築できるようにする
    • Model distillationは、大規模なfrontierモデルの出力を活用してコスト効率の高いモデルをファインチューニングできるようにする
    • Image fine-tuningは、画像とテキストでGPT-4oをファインチューニングし、視覚機能を改善できるようにする
    • Evalsは、特定タスクにおけるモデル性能を測定するカスタム評価の実行機能を提供
    • Prompt cachingは、直近で見た入力トークンに対して割引とより高速な処理時間を提供
    • Generate in playgroundは、Generateボタンでプロンプト、関数定義、構造化出力スキーマを簡単に生成できるようにする

2024年9月

  • 9月26日

  • 9月12日

    • o1-previewとo1-miniを公開
    • 両モデルは強化学習で訓練された新しい大規模言語モデルで、複雑な推論タスクの実行を目指す
    • エンドポイントはv1/chat/completionsと記載

2024年8月

2024年7月

  • 7月24日

    • self-serve SSO configurationをリリース
    • Enterprise顧客のうち、customおよびunlimited billing利用者が希望するIDPに合わせた認証を設定できる
  • 7月23日

  • 7月18日

    • GPT-4o miniを公開
    • 高速で軽量な処理向けの低コスト小型モデルとして紹介
  • 7月17日

    • Uploadsをリリースし、大きなファイルを複数パートに分けてアップロードできるようにした

2024年6月

2024年5月

2024年4月

2024年3月

2024年2月

2024年1月

  • 1月25日

2023年12月

2023年11月

2023年10月

2件のコメント

 
ragingwind 3 일 전

これで 5.4 からは、pro はもはや Chat Completions API では提供されないんですね

 
GN⁺ 4 일 전
Hacker Newsの反応
  • 本番の問題対応でさっそく使ってみたけど、Claudeはこういうことをしなかったのに、GPT-5.5はやった。
    トラブルシューティングのあとに update 文を書かせて、私が「よし、これを transaction で包んで rollback も入れよう」と言ったら、昔ながらのやり方で
    BEGIN TRAN;
    -- put the query here
    commit;
    とだけ返してきた。
    しばらくモデルに対して、頼んだことを本当にやれともう一度押し返す必要はなかったのに、これはかなり衝撃だった。
    トークンを節約したいのは分かるけど、最先端モデルに金を払っているのに、こういうふうに怠けた出し方をされると腹が立つ。
    Cursor のモデル選択に出ていたので、そのまま試しただけ。

    • gpt-5.3-codex以降、ここ最近の2〜3世代は大きく良くなったというより、あれこれ変えて別の tradeoff を作っただけという感じがする。
    • こちらの理解違いかもしれないけど、何が正確に問題だったのか気になる。
      返答で -- put the query here しか入れず、クエリを繰り返さなかったことが問題なら、それは必ずしも問題とは思わない。
      実際の目的が実行するクエリを受け取ることで、「これを transaction にしよう」と言ったのなら、begin を先に打てばいいと教えるのはかなり合理的。
      クエリが長ければトークンも節約できるし、permission denied が出たときにコマンド全体を書き直す代わりに先頭へ sudo を付けろと言うのと似ている。
      逆に、モデルが実際にクエリを実行してくれることを期待していたのに、「ここにあるから自分で実行して」という感じで出してきたなら、それは確かに怠慢で、戸惑うのも分かる。
    • OpenAI はついにユーザーに仕事をさせるレベルの知能に到達した最初の会社のようだ。
      emergent behavior がこういう形で出るのかと思った。
      冗談はさておき、OpenAI が執着するように推している tokenあたりの intelligence 中心の最適化は、M1 以前の Apple が MacBook を極端に薄くすることにこだわっていた時代を思い出す。
      たった一つの指標だけを最後まで追いかけて、他を全部犠牲にしている感じだ。
      GPT-5.3+ は間違いなく最も賢い部類のモデルだが、怠けすぎていて一緒に仕事をするのがつらいことが多い。
    • この事例が良いのか悪いのか、いまいち感覚がつかめない。
    • GPT-5.5はユーザーへの信頼という一点だけは、ベンチマークを粉々にするレベルだ。
  • さっき自分の Wordpress+GravityForms benchmark で回してみたけど、性能面でもリーダーボード最下位クラスで、コスパは最悪だった: https://github.com/guilamu/llms-wordpress-plugin-benchmark
    ベンチマークが一つだけなのは分かっているけど、どうしてここまで悪くなれるのか理解できない。

    • 経験の浅い分野をガレージでいじっていたジュニアが雑なテストを作って、それを benchmark と呼んでいる感じがする。
      最近は言葉の意味があまりにも簡単に崩れるので、こういうことがよくある。
      昔は実際に技術の仕事をしていた人が多かったフォーラムも、今では vibe researcher の大衆で埋まっていく雰囲気があるし、人気の閾値を超えると元々こうなりがちだ。
      HN もまだ真面目な探究が残る最後の砦っぽいけど、元コメントを見る限り完全に免疫があるわけではない。
    • あなたの benchmark では gemma4-e4bgemma4-26b より 50% も良い結果になっているが、これは何かおかしい気がする。
    • あなたの benchmark では Opus 4.7Sonnet 4.6 よりかなり悪く出ているが、たとえそのベンチでは本当だとしても、モデル全体の性能を代表するものではない。
    • まるで時間旅行までしてこの benchmark を持ってきたみたいだ。
      こういう benchmarking はかなり気に入った。
      judge benchmark をどう評価したのか気になるし、自分でも似たようなベンチマークを組んでみたい。
    • これはモデルがどれだけ vibe coding をうまくできるかを見る benchmark に近く見える。
      プロンプトは極端に薄いのに、採点項目はものすごく多い。
  • コンテキスト長ごとの価格はこうだった。
    入力は 272K 以下 $5/M、それ以上 $10/M
    出力は 272K 以下 $30/M、それ以上 $45/M
    キャッシュ読み取りは 272K 以下 $0.50/M、それ以上 $1/M
    272K を超えると Opus 4.7 より明らかに高く、少なくとも自分の作業ではそれだけトークン効率が良いようには見えなかった。
    この価格差を相殺できるほどではなかった。
    GPT-5.4は 400k コンテキストと信頼できる compaction が強みだったのに、どちらもやや後退したように見える。
    ただ、compaction の信頼性が実際に落ちたのかはまだ断定しにくい。
    フロントエンド出力も、相変わらずあの目立つカードを大量に並べた青系テンプレート寄りになりがちだ。
    GPT-5 リリース前の Horizon Alpha/Beta の頃から怪しく見えていたスタイルだけど、そのときは task adherence がとても良かったので、その大きな欠点ひとつを受け入れても有用だった。
    それなのに GPT-5.5 が完全に新しい foundation だと言いながら、その部分がまだこんなに制限されているのは少し妙だ。

  • GPT 5.5 の総合的なコーディング推論ベンチマーク結果が https://gertlabs.com/ に上がっている。
    live decision と、より重い agentic eval も今後24時間かけて追加され続ける予定だが、もうリーダーボード順位は変わらなさそうだ。
    GPT 5.5 は公開モデルの中で最も知能的で、前作より明らかに速い。

  • 昨日はこう言っていた。

    API deployments require different safeguards and we are working closely with partners and customers on the safety and security requirements for serving it at scale.
    なのに今日はもうこうだ。
    1日なら「very soon」ではあるけど、その safeguardssecurity requirements が正確に何を意味していたのか気になる。

    • 何かが safeguards のせいで遅れていると言うときは、たいてい今すぐ回せる計算資源がないという意味でしかない。
    • GPT-5.5 はすでに Codex 専用 API にはあって、そこで別用途に使ってもいいと明示的に言っていたので、
      https://simonwillison.net/2026/Apr/23/gpt-5-5/#the-openclaw-backdoor
      その事実が今回の公開を早めたのかもしれないと思う。
    • 安全性の問題についてあれほど露骨に嘘をついてきた人物がいまだに会社を運営しているのに、今後は違うと期待する理由がよく分からない。
      前例もある。

      In 2023, the company was preparing to release its GPT-4 Turbo model. As Sutskever details in the memos, Altman apparently told Murati that the model didn’t need safety approval, citing the company’s general counsel, Jason Kwon. But when she asked Kwon, over Slack, he replied, “ugh . . . confused where sam got that impression.”
      Altman は OpenAI で safety がどれほど重要かについて、何度もまったく率直ではなかった。
      https://www.newyorker.com/magazine/2026/04/13/sam-altman-may-control-our-future-can-he-be-trusted (https://archive.is/a2vqW)

  • 自分だけかもしれないけど、OpenAI はこういうニュースのたびに有償コメント要員やボットを回して Claude を貶し、Codex のほうがはるかに良いと押している感じがする。
    数が多すぎるし、Claude を毎日使っていると納得できない主張もかなり多い。

    • そう、妙なほどだ。
      OpenAI が監督なしの自律兵器や国内の大規模監視に協力することで民主主義を裏切った、という事実さえみんな忘れたような雰囲気に似ている。
    • 私もかなり露骨に見える。
      少なくとも表に出始めたのは Opus 4.6 hype の直後だった。
    • もちろんそういうことはしている。
      最近は自社製品を押す会社はみんな似たようなものだ。
  • Enterprise ユーザーだけど、まだ 5.4 しか見えない。
    昨日の告知では全員への rollout まで数時間かかると言っていたけど、OpenAI は期待値管理のために GTM をもう少しうまくやるべきだ。

    • 今リロードしたら 5.5 が見えた。
      すばやく展開されたのはいいね。
      次はもっと早く文句を言うことにする。
  • 自分の benchmark で 25/25 を取った2つ目のモデルだ。
    最初は Opus 4.7 で、結果はここ: https://sql-benchmark.nicklothian.com/?highlight=openai_gpt-5.5
    Opus より安くて遅い。

  • API ページには knowledge cutoff が 2025-12-01 と書かれているのに、モデル自身に聞くと 2024年6月 と答える。
    Knowledge cutoff: 2024-06
    Current date: 2026-04-24
    You are an AI assistant accessed via an API.

    • この話が何度も出てくる理由が分からない。
      cutoff 日付を確認するのにモデル本人へ聞くのは、昔から最も信頼性の低い方法だった。
      こういうコメント自体を学習している可能性すらある。
      単に 2025-12-01 の直前に起きた出来事を一つ聞けばいい。
      できれば スポーツの試合 がよい。
    • モデルの言うことを本当に信じられるのかと思う。
      昔のモデル API ページにも 2024年6月 cutoff と多く書かれていたので、それを拾って言っているだけかもしれない。
    • モデルはシステムプロンプトで知らされない限り、自分の cutoff date を知らない。
      本当の cutoff を確認する正しい方法は、その日付以前には存在しなかった、あるいは起きていなかった出来事を尋ねることだ。
      ざっと何回か試した感じだと、5.5 の一般知識 cutoff はまだ 2025年初め頃に見える。
    • じゃあ 2024年アメリカ大統領選 の勝者でテストできる?
  • GPT 5.5 + Codex の組み合わせは本当に良い。
    質問するときも、計画を立てるときも、コードを実装するときも、今ではほぼ疑いなく任せている。
    Opus 4.7 はずっと再確認したくなる。
    CLAUDE.md の指示にあまり従わないし、hallucination も多く、答えが見つからないと基本的に作り話をする方向なので、その差はかなり大きい。
    去年、人々が OpenAI は遅れている、code red だと言っていたのは本当に一瞬だったが、今振り返ると状況は完全に変わった。