Anthropic - OpenClaw: 再び利用可能に
(docs.openclaw.ai)- Anthropicの担当者が、OpenClawスタイルのClaude CLI利用が再び許可されると通知
- Anthropic APIキーとClaude CLIの再利用の両方をサポートし、既存のAnthropicトークンプロファイルも実行時に引き続き認識される
- Claude CLIバックエンドは再び許可された統合方式として扱われ、新しいポリシー発表までは
claude -pの利用も許可対象 - Claude 4.6モデルは、明示的なthinking設定がない場合にadaptive thinkingをデフォルトで適用し、
/think:<level>またはモデルパラメータで上書き可能 /fastトグルはapi.anthropic.comに直接送るリクエストにのみ service_tier を注入し、プロキシやゲートウェイを経由するとtier変更は適用されない- prompt caching と 1M context window もサポートするが、キャッシュはAPI専用で、1Mコンテキストは明示的な有効化とlong-context利用許可が必要であり、既存の
sk-ant-oat-*認証ではベータヘッダーが除外される
Anthropicサポート方式
- Claudeモデル系へのアクセス経路としてAPIとClaude CLIの両方をサポートし、OpenClawではAnthropic APIキーとClaude CLIの再利用の両方を利用可能
- すでに設定済みの既存Anthropicトークンプロファイルも実行時に引き続き認識される
-
Anthropic APIキー
- 標準APIアクセスと従量課金に適した経路
- APIキーはAnthropic Consoleで作成可能
- CLI設定例として
openclaw onboardで Anthropic API key を選択可能 - 非対話型方式として
openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY"をサポート - 設定スニペット例では
ANTHROPIC_API_KEY環境変数とデフォルトモデルanthropic/claude-opus-4-6を使用
Thinkingのデフォルト値
- Claude 4.6モデルは、OpenClawで明示的なthinkingレベルがない場合、デフォルトでadaptive thinkingを適用
- メッセージごとの
/think:<level>またはモデルパラメータagents.defaults.models["anthropic/<model>"].params.thinkingで上書き可能 - 関連ドキュメントとして Adaptive thinking と Extended thinking へのリンクを提供
Fast mode
- OpenClawの共通
/fastトグルは、api.anthropic.comに送信する公開Anthropic向けの直接トラフィックもサポート- APIキー認証とOAuth認証リクエストの両方を含む
/fast onはservice_tier: "auto"にマッピング/fast offはservice_tier: "standard_only"にマッピング- 設定デフォルト例では
anthropic/claude-sonnet-4-6モデルのparams.fastMode: trueを使用 -
制限事項
- OpenClawは直接の**
api.anthropic.comリクエスト**に対してのみAnthropic service tierを注入 anthropic/*リクエストをプロキシやゲートウェイ経由で迂回した場合、/fastはservice_tierを変更しない- 明示的な
serviceTierまたはservice_tierモデルパラメータがある場合は、/fastのデフォルト値より優先される - Anthropicは実際に適用されたtierをレスポンスの
usage.service_tierに記録 - Priority Tier capacity がないアカウントでは、
service_tier: "auto"が依然としてstandardと解釈される場合がある
- OpenClawは直接の**
プロンプトキャッシュ
- OpenClawはAnthropicのprompt caching機能をサポート
- この機能はAPI専用で、既存のAnthropicトークン認証ではキャッシュ設定は反映されない
-
設定
- モデル設定で
cacheRetentionパラメータを使用 noneはキャッシュ無効化shortは5分キャッシュlongは1時間の拡張キャッシュ- 設定例では
anthropic/claude-opus-4-6モデルにparams.cacheRetention: "long"を使用
- モデル設定で
-
デフォルト値
- Anthropic APIキー認証を使用する場合、すべてのAnthropicモデルに**
cacheRetention: "short"** を自動適用 - 明示的に
cacheRetentionを設定すると、このデフォルト値を上書き可能
- Anthropic APIキー認証を使用する場合、すべてのAnthropicモデルに**
-
エージェントごとの上書き
- モデルレベルのパラメータをベースラインとし、特定エージェントは
agents.list[].paramsで個別に上書き可能 - 例では
researchはデフォルト設定を使用し、alertsはcacheRetention: "none"を適用 - キャッシュ関連パラメータのマージ順は
agents.defaults.models["provider/model"].paramsの後にagents.list[].paramsの順 - 同じモデルを使っていても、あるエージェントは長期キャッシュを維持し、別のエージェントはキャッシュを無効化できる
- キャッシュ無効化の目的例として、バースト型または再利用率の低いトラフィックで書き込みコストを避ける点に言及
- モデルレベルのパラメータをベースラインとし、特定エージェントは
-
Bedrock Claude参考
- BedrockのAnthropic Claudeモデル
amazon-bedrock/*anthropic.claude*は、設定されている場合cacheRetentionの受け渡しをサポート - Anthropic以外のBedrockモデルは実行時に
cacheRetention: "none"に強制される - Anthropic APIキーに基づくスマートデフォルトは、明示値がない場合、Claude-on-Bedrockモデル参照にも
cacheRetention: "short"を適用
- BedrockのAnthropic Claudeモデル
1Mコンテキストウィンドウ
- Anthropicの1M context window はベータ制限機能であり、OpenClawではサポート対象のOpus/Sonnetモデルごとに
params.context1m: trueで有効化可能 - 設定例では
anthropic/claude-opus-4-6モデルのparams.context1m: trueを使用 - OpenClawはこれをAnthropicリクエストの**
anthropic-beta: context-1m-2025-08-07** ヘッダーにマッピング - この機能は、対象モデルで
params.context1mが明示的にtrueの場合にのみ有効 - 利用条件として、対象認証情報でAnthropicがlong-context usageを許可している必要がある
- 現在Anthropicは、既存のAnthropicトークン認証
sk-ant-oat-*使用時のcontext-1m-*ベータリクエストを拒否 - 既存認証モードで
context1m: trueを設定した場合、OpenClawは警告ログを残し、context1mベータヘッダーをスキップして標準コンテキストウィンドウにフォールバック- 必要なOAuthベータは維持される
Claude CLIバックエンド
- バンドルされたAnthropic
claude-cliバックエンドをOpenClawでサポート - Anthropicの担当者が、この利用方式は再び許可されたと伝達
- それに伴い、OpenClawはAnthropicが新ポリシーを発表するまで、Claude CLIの再利用と
claude -pの利用を許可された統合方式として扱う - 常時稼働のゲートウェイホストと明示的なサーバー側課金制御には、Anthropic APIキーが最も明確な運用経路
- 設定および実行の詳細は
/gateway/cli-backendsを参照
参考事項
- Anthropicの公開 Claude Codeドキュメントでは、依然として
claude -pのような直接CLI利用を文書化している - Anthropicの担当者が、OpenClaw方式のClaude CLI利用は再び許可されると伝えており、Anthropicが新たなポリシー変更を発表するまでは、これを確定ガイダンスとみなす
- OpenClawではAnthropic setup-tokenもサポートされるトークン認証経路として引き続き提供
- ただし利用可能な場合、OpenClawはClaude CLIの再利用と
claude -pをより優先する方式 - 認証の詳細と再利用ルールは
/concepts/oauthを参照
トラブルシューティング
-
401 errors / token suddenly invalid
- Anthropicトークン認証は期限切れまたは取り消しになる場合がある
- 新規設定ではAnthropic APIキーへの移行を推奨
-
No API key found for provider “anthropic”
- 認証はエージェントごとに適用される
- 新しいエージェントはメインエージェントのキーを継承しない
- 対象エージェントに対してオンボーディングを再実行するか、ゲートウェイホストにAPIキーを設定したうえで
openclaw models statusで確認が必要
-
No credentials found for profile
anthropic:default- どの認証プロファイルが有効かは
openclaw models statusで確認可能 - オンボーディングの再実行、または該当プロファイルパスへのAPIキー設定が必要
- どの認証プロファイルが有効かは
-
No available auth profile (all in cooldown/unavailable)
openclaw models status --jsonでauth.unusableProfilesを確認可能- Anthropicのrate limit cooldownはモデル単位の場合があるため、現在のモデルがcooldown中でも同系列の別Anthropicモデルは利用可能なことがある
- 別のAnthropicプロファイルを追加するか、cooldown解除を待つ必要がある
- 追加の参照先として
/gateway/troubleshootingと/help/faqを提供
9件のコメント
Codexで
gemma4 31bのローカルモデルをcodexで使えるようにしてから(マルチターンまで自動でチェックしてくれる細かさ!)、ChatGPT Pro以外のサブスクは全部解約しました。codex-app-linuxとこの2つを組み合わせると、認識可能な最大並列で作業を回しても使用量に余裕がありますハードウェアスペックを少し教えてください!
4090で回すと賢くはあるんですが、長期運用には少し物足りないんですよね
私も
gemma4をローカルで動かそうとしているのですが、もしよければハードウェアのスペックはどの程度か教えていただけますか?正直、あまりにもダサすぎて……
プロユーザーにClaude Codeを使わせないようにしようとしていたら反発が良くなかったので、一時的にこうしているだけにしか見えませんね……
それでも、うっかり間違って使ってアカウント停止を食らうよりは、ひとまず様子を見るのがよさそうですね。
CC OAuth APIキーの利用で頭を悩ませていましたが、結局以前の Codex に落ち着きました……
実は私も最近はそのままCodexに定着しています.. Claudeはトークン消費が速すぎます
Hacker Newsの意見
OpenClaw の Peter です。Claude Code の Boris が Twitter で CLI スタイルの利用は許可されている と公に述べたので、そのガイドを信じて実装に投資しました。CLI 利用時には heartbeat のような過剰なトークン機能もデフォルトで切るように変更しましたが、実際には Anthropic がシステムプロンプトの一部をブロックしており、公開コミュニケーションと現在の挙動が一致していません。関連発言は こちら で確認できます。人々が名前を少し変えて回避し始めると分類器も変わったようですが、私はそういう 回避ゲーム をするつもりはないので、理論上は可能でも実運用では無理という曖昧な状態に置かれています
claude -pベースのワークフローをかなり深く積み上げてきました。ところが新しい--bareフラグの導入とともに、無制限ユーザー向けの-pが事実上押しやられる rug pull が来るように見えて不安です。ドキュメントにも--bareがスクリプトと SDK 呼び出しの推奨モードで、今後は-pのデフォルトになる予定だと書かれているので、自分の誤解であってほしいか、明確な説明が必要です。ドキュメントは headless docs ですclaude -pやより良い SDK ベースのワークフローを作れるようにすればよいと思います今の状況は本当に 濁った泥沼 のように感じます。Anthropic はサブスクの有無によって何がサポートされ、何がサポートされないのかを明確にすべきで、それまではユーザーが製品をどう使えばよいか自分の立ち位置を把握しにくいです。私は現時点で OpenClaw や類似製品を使ってはいませんが、少なくとも何が許されて何が許されないのかは知りたいし、今はそれがほぼ不可能な状態だと思います
vibe productが思い浮かびます。最近は何かがあまりに早く現れては消えるので、昔のような期待感はかなり薄れましたAnthropic の社員たちが Twitter で互いに 食い違う説明 をし、訂正まで重ねてさらに混乱を大きくしたことが核心だと思います。今日は OpenClaw スタイルの Claude CLI 利用は大丈夫だと言っても、明日ポリシー更新でまた撤回されるかもしれないという不安が大きいです。Claude Code まわりで Anthropic は信頼しにくい姿を見せており、メンタルヘルスを守るには別のプロバイダーへ移った方がよいと思います
keep your insanityが、むしろ あまりにも的確な表現 に感じられて笑いましたclaude -p利用の両方を追加課金へ回すためだった可能性が高いように見えます。なので、このページがその告知と矛盾しているとは感じませんこの変更はすでに2週間前に commit で戻っており、その時点も Anthropic が OpenClaw に 追加利用量 が必要だと言ってから3日後でした。この流れを見ると真面目に受け取りにくく、公式声明どころか Tweet 一つないのも不思議です。参考までに別の文脈は HN リンク で見られます
Open-Claw style CLI usageは後者に近い意味で、Claude Code CLI の外で OAuth 認証情報を使う場合は、既存サブスクの範囲内ではなく API 価格ベースの追加課金が付く構造だと理解していますclaude -p利用の両方を追加課金対象へ回す方向に変わった、という解釈ですAnthropic は値上げし、制限を減らし、ポリシーも曖昧にしながら、積み上げてきた goodwill を焼き尽くそうとしているように見えます
Amazon と契約した直後なので、今回の件も結局は compute 制約 の問題だったのではと思います。いずれにせよ、私が使った Codex 月額20ドルプランは制限が低すぎて、エージェントが別のエージェントへ渡す前に何かをきちんとやるのも難しかったです。Anthropic の正式な告知なしにこういう使い方をして、大事な Max 月額200ドルのアカウントを失うのが怖いので、しばらくは慎重に様子を見るつもりです
私の理解では、Anthropic のライブラリやツールを使う限り OAuth 認証情報 を利用できます。たとえば Claude Agent SDK に OAuth を付ければ、Claude Code を埋め込んだ各種エージェントを予測可能な月額コスト内でプロトタイピングでき、スキルをスタンドアロンのツールやアプリにするのに特に魅力的です。さらに複雑なことをするなら、tmux の中で Claude Code を動かして入出力をやり取りすることもでき、MCP Channels も興味深いです。これはアプリと実行中の Claude Code インスタンスの間に MCP サーバーを置き、双方向通信を可能にしてくれます。速度は遅いですが、CLI セッションの文脈を失わないまま、GUI の方が簡単な作業へ一時的に抜けて戻るような使い方ができて面白いです
この1週間で、私の OpenClaw 補助アシスタントは Claude を使う中で 個性 を失い、本来得意だったこともできなくなりました。利用額は 28 ドルほどまで積み上がりましたが、その後はそれ以上消費されず、別の問題があったのかは分からないものの現象は続きました。結局うんざりして、移行スクリプトで会話履歴と性格を claude code config に移し、新しい remote exec 機能のおかげで OpenClaw のような最新の実験的ツールの不安定さを受け入れなくても、以前の機能の大半を取り戻せました。私には、Anthropic は趣味ユーザーの領域に十分な 摩擦 を加えて、最終的に自社専用ソリューションへ移行させるつもりだったように見えますし、いずれにせよその方がより安全な選択にも見えます
claude -p promptと cron で OpenClaw を再現したら Anthropic がそれを歓迎するのか気になりますし、たぶんそうできる人の数が誤差範囲だから気にしていないのかもしれません。文脈としては この HN 投稿 も参考になりますOpenClaw が「
Anthropic が大丈夫だと言った」という構図だなんて、本当に 水晶のように明快な 状況ですね、という皮肉が出ます私は Claude Code と Opus、Max プランの組み合わせには概ね満足していますが、ときどき使えない瞬間や、コスト、アカウント BAN への不安などはやはり気になります。なので、似たかそれ以上の体験をもっと安く得られる 代替構成 があるのか気になります。pi.dev と OpenCode が良いという話はよく見ますし、OpenCode に Mimo V2 pro をつないでみたところかなり良かったです。以前は無料枠が塞がれる前に Qwen CLI や Gemini CLI も使っていて、Z.ai を OpenCode と一緒に使うこともありました。また、計画は Opus に任せ、重要度の低い作業はもっと安いモデルへ流すという人もいますが、私は従量課金は結局安くならない気がして好みません。主に Python バックエンドと TypeScript フロントエンドを扱い、Hetzner にホスティングし、Docker を多用し、必要なら k3s も使うのですが、こういう環境で使える 実戦的なセットアップ を共有してほしいです
プロンプトキャッシュが効かないと、トークンがただ溶けていく気がするんですが