1 ポイント 投稿者 GN⁺ 2026-03-14 | 1件のコメント | WhatsAppで共有
  • Claude Opus 4.6 と Sonnet 4.6 が、標準料金で 100万トークン(1M)コンテキストウィンドウ をサポート開始。追加プレミアムなしで全範囲を利用可能
  • 料金は同一単価 が適用され、Opus 4.6 は $5/$25、Sonnet 4.6 は $3/$15(入力/出力基準)で、9K でも 900K のリクエストでも同じ比率で課金
  • メディア入力上限が 6 倍に拡大 し、最大 600 枚の画像または PDF ページを一度に処理可能。Azure Foundry・Google Vertex AI などでもすぐに利用可能
  • Claude Code の Max、Team、Enterprise ユーザー は自動的に 1M コンテキストを活用でき、セッション圧縮の減少と会話維持力の向上が可能
  • 大規模コードベース、契約書、運用ログなどの 複雑な長期コンテキストを維持しながら、精度と効率を高める機能 と評価されている

1M コンテキスト一般提供の概要

  • Opus 4.6 と Sonnet 4.6 が Claude Platform で 1M コンテキストウィンドウを標準料金で提供
    • Opus 4.6 は 100万トークンあたり $5(入力)/$25(出力)、Sonnet 4.6 は $3/$15
    • リクエストサイズによる料金差はなし
  • 長文コンテキストのプレミアムを廃止 し、すべてのコンテキスト長で同一スループット を維持
  • メディア入力上限が 6 倍に増加: 最大 600 枚の画像または PDF ページをサポート
  • ベータヘッダー不要、200K トークン超のリクエストも自動処理

Claude Code 統合

  • Claude Code の Max、Team、Enterprise プラン で Opus 4.6 を使用すると、1M コンテキストが自動で有効化
    • セッション内の会話圧縮(compaction)が減少
    • 以前は追加利用量が必要だったが、現在は基本機能に含まれる

モデル性能と精度

  • Opus 4.6 は MRCR v2 基準で 78.3% となり、同一コンテキスト長のモデルの中で最高性能
  • 1M コンテキストでも 精度を維持し、長文検索性能が向上
  • 大規模コードベース、契約書、長期エージェントログなどを 全文脈のまま維持して処理可能
    • 要約やコンテキスト初期化なしで会話全体を維持

実際の活用事例

  • 科学研究: 数百本の論文・数学的フレームワーク・シミュレーションコードを一度に統合分析可能(Alex Wissner-Gross)
  • 法務業務: 100 ページの契約書の複数バージョンを 1 セッションで比較可能(Bardia Pourvakil)
  • 運用システム分析: 障害対応中にすべてのシグナルと仮説をひと目で維持(Mayank Agarwal)
  • AI 研究およびコードレビュー: 大規模な diff ファイルを一度に処理して品質を向上(Adhyyan Sekhsaria)
  • データ分析とデバッグ: Datadog・データベース・ソースコード検索時に詳細情報を失わず維持(Anton Biryukov)
  • エージェント効率の向上: コンテキスト圧縮イベントが 15% 減少し、長時間セッションでも初期情報を維持(Jon Bell)

利用可能なプラットフォームと開始方法

  • 1M コンテキストは Claude PlatformAmazon BedrockGoogle Cloud Vertex AIMicrosoft Foundry で即時利用可能
  • Opus 4.6 ベースの Claude Code Max、Team、Enterprise ユーザーには デフォルトで 1M コンテキストが適用
  • 詳細は公式の ドキュメント(documentation) および 料金案内(pricing) ページで確認可能

1件のコメント

 
GN⁺ 2026-03-14
Hacker Newsの意見
  • Opus 4.6は本当に驚異的なレベル フロントエンド、バックエンド、アルゴリズムなど、どんな作業を投げてもよくこなす PRDから始めて段階的な計画を立て、一つずつ実行していくと、数時間で実際に動く成果物が出てくる 初めて「これは自分より賢いかもしれない」と思ったAIだった しかも今の技術なら、毎秒1kトークンの速度で複数のエージェントを同時に回すこともできる

    • 私もそういう体験をしてみたかった Opus 4.6ベースのClaude CodeにReactコードのリファクタリングを任せたが、useState/useEffect → useMemoに置き換える作業だった 計画は素晴らしかったが、一部のコードで変数宣言を誤った位置に置いたせいでundefined参照が発生した 修正しようとすると、逆に構造を大きく変えようとしたので、結局は手作業で直した それでも全体としては時間は節約できたが、かなりいらだたしい体験だった
    • 何を作っているのか気になる 私はOpus 4.6でデータベースdiffツールのテストハーネスを作ろうとしたが、見当違いの既存ツール向けテストを生成した テストコードが実際の関数を呼ばず、ロジックを直接実装してしまった 4時間と75ドルを使ってようやく動くものを得たが、品質はいまひとつだった 会社でもClaude利用予算を増やせという指示があったが、みんな似たように苦労している 今はVS Studioでの部分修正やデバッグに使うほうがずっと効率的だ
    • 一度AIループにはまったことがあった 地形水槽に堆積物がたまる計算問題だったが、Opusが3つの相反する説明を繰り返し続けた 3回試しても同じループにはまったので、結局は強引にbrute forceアプローチで解決した 人間なら2回目くらいでこういうループには陥らなかった気がする
    • 私の基準ではOpus 4.6はすでにAGIレベル 単に指示に従うだけでなく、頼んでいない改善アイデアまで自分から提案してくる
  • 今回のアップデートの要点は、1Mトークンウィンドウ全体に標準料金を適用したことと、600枚の画像/PDFページをサポートしたこと Claude Codeユーザーにとっては大きな変化だ

    • 1Mウィンドウをフルに埋めて使うのが本当に有用なのかは疑問 私はDex Horthyの研究のように、40%以下(約80kトークン)に保つほうが安定していた ちなみに「No vibes allowed」の動画はこちら
    • 会社で1Mウィンドウを実務に使っている 700kトークンまでは問題なかったが、それ以上になると少しずつ鈍くなる感覚があった 完全自動化よりペアプログラミングモードで使うほうが安定している
    • コンテキストが大きくなるほど入力トークンのコストが増える 800k入力は100kの8倍のコストなので、キャッシュが効かなければAPI料金の爆弾になりうる
    • 「じゃあ画像1枚は1,666語分の価値なのか?」という冗談を飛ばす
    • 私の場合、1Mウィンドウではコーディング品質が急激に低下した 会話の途中で文脈をよく忘れてしまう
  • もう自分でコードを書くほうがいいという意見を述べる

  • 私はキャリアがPythonからC/C++へ移った OpusはPythonでは自分よりうまくやることもあるが、組み込み分野ではまだジュニアレベルだ 結局は学習データの質の問題だと思う だからLLMがハードウェアエンジニアを置き換えることは、しばらくなさそうだ

  • 私はAIが作ったコードのthrashing問題を防ぐためにCIチェックを作った エージェントがテスト失敗を何度も直そうとして、幻のimportdeprecated APIを入れてしまうことが多かった そこでPRごとに軽いスキャンを回し、存在しないnpmパッケージ文脈逸脱を検出している 既存の静的解析は文法しか見ないが、AIコードは意味的に間違っている場合が多い 今後はこうしたドメイン知識ベースの検証が必須になると思う

  • 100kトークン付近で性能が落ちる理由を問う投稿があった 実際に使えるコンテキストはもっと小さいという意見が多い

    • 私はOpus 4.6ではそうした性能低下をほとんど感じなかった たぶん以前の体験が残っていて生じた思い込みかもしれない
    • 私の経験ではコンテキストの腐敗(context rot) は今も残っている 90kトークン使うと、100kでも1Mでも似たように悪化する 大規模コードベースではプロンプト品質が重要だ
    • ベンチマークのチャートが、すでにその答えそのものだと思う
    • Transformerの注意(attention)複雑性はコンテキストサイズに応じて二乗で増えるため、 1Mトークンを処理するにはさまざまな近似手法を使わざるを得ず、それが性能低下の原因かもしれない
  • Claude Code 2.1.75では標準Opusと1M Opusの区別がなくなった Proプランでもそう見えるが、実際には依然として制限がある おそらくAnthropicがGPT 5.4の1Mウィンドウ競争に対応しようとしている戦略だ

    • Max 20xでは依然として別モデルとして存在する
    • Proでは今でも1Mコンテキストは追加料金がかかる
  • Claudeの価格設定は奇妙だ 5Xプランは以前のプランのちょうど5倍の価格だ 普通は大量購入で割引があるのに、ここではない

    • Anthropicはすでに需要が供給を上回っているので、もっと使わせるよう誘導する必要がない むしろ1人が5倍使うより、5人で分けて使うほうが良いと判断しているようだ
    • 5Xプランは呼び水で、実際には20xプランを売るための戦略だ
    • 「量で埋めればいいだろう」という冗談を飛ばす
    • どちらのプランも補助金が入ったお得な取引だという意見もある
  • 今日使ってみたが、本当に興味深い変化だ 複数のサブエージェント並列セッションを1つのマスターセッションに収められるようになった Opus 1MはGPT 5.4の256k級に近いと言われるが、品質低下はほとんどない ただしq4 ’25モデルのように急激に落ちるわけではない

    • Sonnet 4.5 1Mをよく使っていたが、性能は似ていても速度ははるかに速かった トークンを節約せず積極的に使っていたからだと思う
    • 個人払いか会社払いかを尋ねるコメントもあった 会社はGitHub Copilotしか支援していないという
  • 長いセッションはトークン予算を急速に消費するのか、という質問があった 会話が長くなるほど以前の文脈が再送され続けるためだ

    • その通り。キャッシュを使っても800kトークンなら1リクエストあたり約0.40ドルで、すぐ積み上がる ツール呼び出しが多いと1分に何度も課金されることもある
    • コンテキストキャッシングをうまく活用すればコストを大きく減らせる 最大900kトークンまでキャッシュ可能だ