- Claude Opus 4.6 と Sonnet 4.6 が、標準料金で 100万トークン(1M)コンテキストウィンドウ をサポート開始。追加プレミアムなしで全範囲を利用可能
- 料金は同一単価 が適用され、Opus 4.6 は $5/$25、Sonnet 4.6 は $3/$15(入力/出力基準)で、9K でも 900K のリクエストでも同じ比率で課金
- メディア入力上限が 6 倍に拡大 し、最大 600 枚の画像または PDF ページを一度に処理可能。Azure Foundry・Google Vertex AI などでもすぐに利用可能
- Claude Code の Max、Team、Enterprise ユーザー は自動的に 1M コンテキストを活用でき、セッション圧縮の減少と会話維持力の向上が可能
- 大規模コードベース、契約書、運用ログなどの 複雑な長期コンテキストを維持しながら、精度と効率を高める機能 と評価されている
1M コンテキスト一般提供の概要
- Opus 4.6 と Sonnet 4.6 が Claude Platform で 1M コンテキストウィンドウを標準料金で提供
- Opus 4.6 は 100万トークンあたり $5(入力)/$25(出力)、Sonnet 4.6 は $3/$15
- リクエストサイズによる料金差はなし
- 長文コンテキストのプレミアムを廃止 し、すべてのコンテキスト長で同一スループット を維持
- メディア入力上限が 6 倍に増加: 最大 600 枚の画像または PDF ページをサポート
- ベータヘッダー不要、200K トークン超のリクエストも自動処理
Claude Code 統合
- Claude Code の Max、Team、Enterprise プラン で Opus 4.6 を使用すると、1M コンテキストが自動で有効化
- セッション内の会話圧縮(compaction)が減少
- 以前は追加利用量が必要だったが、現在は基本機能に含まれる
モデル性能と精度
- Opus 4.6 は MRCR v2 基準で 78.3% となり、同一コンテキスト長のモデルの中で最高性能
- 1M コンテキストでも 精度を維持し、長文検索性能が向上
- 大規模コードベース、契約書、長期エージェントログなどを 全文脈のまま維持して処理可能
実際の活用事例
- 科学研究: 数百本の論文・数学的フレームワーク・シミュレーションコードを一度に統合分析可能(Alex Wissner-Gross)
- 法務業務: 100 ページの契約書の複数バージョンを 1 セッションで比較可能(Bardia Pourvakil)
- 運用システム分析: 障害対応中にすべてのシグナルと仮説をひと目で維持(Mayank Agarwal)
- AI 研究およびコードレビュー: 大規模な diff ファイルを一度に処理して品質を向上(Adhyyan Sekhsaria)
- データ分析とデバッグ: Datadog・データベース・ソースコード検索時に詳細情報を失わず維持(Anton Biryukov)
- エージェント効率の向上: コンテキスト圧縮イベントが 15% 減少し、長時間セッションでも初期情報を維持(Jon Bell)
利用可能なプラットフォームと開始方法
- 1M コンテキストは Claude Platform、Amazon Bedrock、Google Cloud Vertex AI、Microsoft Foundry で即時利用可能
- Opus 4.6 ベースの Claude Code Max、Team、Enterprise ユーザーには デフォルトで 1M コンテキストが適用
- 詳細は公式の ドキュメント(documentation) および 料金案内(pricing) ページで確認可能
1件のコメント
Hacker Newsの意見
Opus 4.6は本当に驚異的なレベル フロントエンド、バックエンド、アルゴリズムなど、どんな作業を投げてもよくこなす PRDから始めて段階的な計画を立て、一つずつ実行していくと、数時間で実際に動く成果物が出てくる 初めて「これは自分より賢いかもしれない」と思ったAIだった しかも今の技術なら、毎秒1kトークンの速度で複数のエージェントを同時に回すこともできる
今回のアップデートの要点は、1Mトークンウィンドウ全体に標準料金を適用したことと、600枚の画像/PDFページをサポートしたこと Claude Codeユーザーにとっては大きな変化だ
もう自分でコードを書くほうがいいという意見を述べる
私はキャリアがPythonからC/C++へ移った OpusはPythonでは自分よりうまくやることもあるが、組み込み分野ではまだジュニアレベルだ 結局は学習データの質の問題だと思う だからLLMがハードウェアエンジニアを置き換えることは、しばらくなさそうだ
私はAIが作ったコードのthrashing問題を防ぐためにCIチェックを作った エージェントがテスト失敗を何度も直そうとして、幻のimportやdeprecated APIを入れてしまうことが多かった そこでPRごとに軽いスキャンを回し、存在しないnpmパッケージや文脈逸脱を検出している 既存の静的解析は文法しか見ないが、AIコードは意味的に間違っている場合が多い 今後はこうしたドメイン知識ベースの検証が必須になると思う
100kトークン付近で性能が落ちる理由を問う投稿があった 実際に使えるコンテキストはもっと小さいという意見が多い
Claude Code 2.1.75では標準Opusと1M Opusの区別がなくなった Proプランでもそう見えるが、実際には依然として制限がある おそらくAnthropicがGPT 5.4の1Mウィンドウ競争に対応しようとしている戦略だ
Claudeの価格設定は奇妙だ 5Xプランは以前のプランのちょうど5倍の価格だ 普通は大量購入で割引があるのに、ここではない
今日使ってみたが、本当に興味深い変化だ 複数のサブエージェント並列セッションを1つのマスターセッションに収められるようになった Opus 1MはGPT 5.4の256k級に近いと言われるが、品質低下はほとんどない ただしq4 ’25モデルのように急激に落ちるわけではない
長いセッションはトークン予算を急速に消費するのか、という質問があった 会話が長くなるほど以前の文脈が再送され続けるためだ