- 同じ Opus 4.6 モデルを使用しつつ、API 構成を変更して レイテンシを最小化
- 高速な反復、ライブデバッグなど、時間に敏感な 対話型タスクに最適化
- CLI または VS Code 拡張で
/fast を入力して オン・オフを切り替え、またはユーザー設定ファイルに "fastMode": true と記述して 常時有効化
- 有効化すると 自動的に Opus 4.6 に切り替わり、ステータスメッセージと
↯ アイコンが表示
- Fast Mode は 標準の Opus 4.6 よりトークン単価が上昇
- 200K 未満のコンテキストでは入力 $30/MTok、出力 $150/MTok を適用(標準は入力 $5、出力 $25)
- 200K 超のコンテキストでは入力 $60/MTok、出力 $225/MTok を適用(標準は入力 $10、出力 $37.5)
- 2/16 までは 50% 割引を適用
- Fast Mode 専用の 別個のレートリミットが適用され、上限超過またはクレジット消尽時には 標準モードへ自動フォールバック
- Fast Mode は 研究プレビューとして提供され、機能・価格は変更される可能性あり
3件のコメント
Hacker Newsの反応
速度は2.5倍になったが、価格は6倍 かなり高いプレミアムだ。特に Gemini 3 Pro は Opus 4.6 と比べてトークン毎秒速度が1.8倍なのに、価格は0.45倍程度だ。 ただしコーディング性能は劣り、Gemini CLI にはまだ Claude Code ほどの エージェント能力 はない。
遅いモード(slow-mode)があるといい。低コストの spot GPU でジョブを予約実行できる機能だ。 私はよく昼休みや退勤前にプロセスを走らせるが、すぐに実行される必要はない。空いているGPUで安く回せれば十分だ。
このモードではサブスクリプションの残り使用量を活用できない。 Fast mode の使用量は常に別料金で課金され、プランに含まれたトークンとは無関係に最初のトークンから 追加料金 が発生する。 現在は $50 の無料追加利用キャンペーンがある。
私にはこの機能はあまり役に立たなそうだ。 ボトルネックはモデルではなく、LLM が生成したコードを自分が理解する 速度 だからだ。
「Fast mode をいつ使うか決める」ドキュメントを見ると、
私の普段のワークフローは計画段階と実装段階に分かれている。 Fast mode は計画段階で最も有用になりそうだ。 「コンテキスト初期化後に Fast mode で実行」だけでなく、 「コンテキスト初期化後に通常速度で実行」というオプションもほしい。 探索型エージェントは遅くても構わないが、計画を素早く反復できればはるかに効率的だ。
通常の Pro アカウントは事実上 スローモード だ。 私は今 Kimi2.5 CLI をテスト中だが、速度も速く、Web インターフェースも提供されているので VPN 環境でもリモートで使える。
もう Hacker News は単なる Claude のマーケティングブログ に CNAME してもいいのでは。
速度向上の理由が気になる。単なる 優先順位調整 だけでは難しそうだ。 新しいハードウェア(Groq、Cerebras など)かもしれない。一部クラウドでしか提供されていない点を見ると、その可能性はある。 今後 LLM 提供企業が「速度 vs 知能」を分けて価格設定するようになるのかも気になる。
「Claude が C コンパイラを作った」という投稿を見て、Anthropic や OpenAI のような研究所の 社内推論速度 が気になった。 推論速度が速いほどソフトウェア市場を制しやすい。 Anthropic が2.5倍速度を公開したなら、社内では5〜10倍速いモードを使っているのかもしれない。 エージェント同士が交渉する未来では、最も速い計算力 を持つ者が勝者になるだろう。
「次のタスクは何がいいかな?」
一度で3.46ドルの決済が追加されて、サブスクモデルではカバーされないみたいですね。
少し前に50ドルくれたのは、これを使ってみろってことだった気もします(笑)
これからはますますお金持ちだけが使うAIになっていきますね……