- Forbesが引用したClaude Code Maxプランの5,000ドル計算は、実際のコンピュートコストではなくAPI小売価格基準である
- OpenRouterのQwen 3.5 397BおよびKimi K2.5モデルの価格と比較すると、Anthropic API料金の約10分の1水準で同規模モデルが運用されている
- この基準で計算すると、Anthropicの実際の推定コストは約500ドルであり、一部のヘビーユーザーに対して月300ドルの損失が出る程度にすぎない
- ほとんどのユーザーはトークン上限に達しておらず、平均利用量ベースでは損益分岐または黒字の構造である
- AI推論コストが過大だという認識は誤解であり、これは大手AI企業の高いAPIマージンを正当化するために利用されている
Forbesの5,000ドル主張の検証
- ForbesはCursor関連の記事で、Anthropicの200ドルプランが5,000ドル相当のコンピュート使用を許容すると引用した
- この引用は「会社のコンピュート使用パターン分析を見た人物」の発言として紹介されている
- この数値はAPI小売価格ベースの計算であり、実際のコンピュートコストとは異なる
- AnthropicのOpus 4.6 API料金は、入力100万トークンあたり5ドル、出力100万トークンあたり25ドルに設定されている
- このレートで計算すると、ヘビーユーザーは月5,000ドル相当のAPI使用量に達しうる
実際のコンピュートコスト推定
- OpenRouterでは、同規模のQwen 3.5 397B-A17Bモデルは入力100万トークンあたり0.39ドル、出力2.34ドル水準
- Kimi K2.5モデルは入力0.45ドル、出力2.25ドルでさらに安価
- これはAnthropic API料金と比べて約10倍安い水準である
- キャッシュトークンのコストも同様の比率で差がある
- 例: DeepInfraのKimi K2.5キャッシュ読み取りコストは0.07ドル/MTok、Anthropicは0.50ドル/MTok
- したがって実際のコンピュートコストは、API料金の約10%水準と推定できる
Claude Code Maxユーザーの実際のコスト
- API料金ベースで5,000ドル相当のトークンを使うユーザーの実際のコストは、約500ドル水準
- この場合、Anthropicは月300ドル程度の損失となる
- しかしAnthropicは、5%未満のユーザーだけがトークン上限に到達すると明らかにしている
- 一般ユーザーは平均して50%未満のトークン使用量にとどまる
- Anthropicの
/costデータによれば、平均ユーザーは1日6ドル水準のAPI使用量で、90%は12ドル以下
- 実際のコストベースでは月約18ドルとなり、20〜200ドルのサブスクリプション料金に対して収益性を確保可能である
Cursorとのコスト差
- 5,000ドルという数値は、Cursorの内部分析結果に由来する
- CursorはAnthropicの小売API料金でOpus 4.6を使う必要がある
- そのためCursorの立場では、パワーユーザー1人あたり月5,000ドルのコストが発生しうる
- 一方でAnthropicの実際のコストは約500ドル水準
- Cursorは、開発者がAnthropicモデルを好むという点で難しさを抱えている
Anthropicの収益構造と誤解
- Anthropicは依然として、学習コスト、人件費、大規模コンピュート投資などにより全体では赤字構造にある
- しかし、トークン単位の推論(inference)コストは高い収益性を持つ可能性が高い
- 「AI推論は赤字事業」という認識は、API価格の過大なマージンを正当化し、競争を弱めている
- 実際の推論エコノミクスを理解するには、OpenRouterの公開モデル価格を参照するのが現実的である
- これは大手AI企業のAPI料金に対して実コストの一部の水準にすぎない
1件のコメント
Hacker Newsの意見
Qwen 3.5 397B-A17BをAnthropicモデルと比較するのは的外れな比較である
QwenやDeepSeekのような中国モデルは、Anthropicより10倍以上効率的だと知られている
OpenRouterの価格と公式提供価格の差が大きくない理由もここにある。しかも、OpenRouterのプロバイダがどのような**量子化(quantization)**手法を使っているのかも不明である。実際には100倍の効率が出ているのかもしれない
もちろん、すべてのユーザーがプランを上限まで使うわけではないので、ユーザーあたり5,000ドルずつ損失が出ているわけではない
Amazon BedrockのOpus 4.5と中国モデルのt/s値を見ると同程度であり、実際のアクティブパラメータ数も近い
OpenRouterではBF16やQ8のプロバイダを直接選ぶこともできる
中国企業はGPUが不足しているが、推論効率化では多くの革新を成し遂げてきた。DeepSeek CEOのLiangも関連論文の著者の一人である
Anthropicはモデル構造やパラメータ数を公開したことがない
オープンソースモデルの大半は、他のモデルを蒸留したりMoEを使ったりして計算コストを下げている
Qwenを比較基準にしたブログ記事は信用しにくい
元記事によると、Cursorは昨年、月額200ドルのClaude Codeサブスクリプションが最大2,000ドル分のコンピューティングを使うと見積もっていた
今ではその補助額がさらに大きくなり、同じプランで約5,000ドル分のコンピューティングを消費しうるという
OpenAIやAnthropicがトークンを赤字で売っていると信じている人は多いが、実際の証拠はほとんどない
Forbesの不正確な記事のせいでこうしたミームが広まった。その記事はAPI料金とコンピューティングコストの違いすら理解していない
AnthropicがCCの外部利用を防いでいる点や、API支出上限が5,000ドルである点などを見ると、収益性が低い可能性もある
研究・訓練・インフラ・人件費はすべてトークン生成コストに含めるべきである
オープンウェイトモデルの低価格は市場シェア獲得のためのダンピングによるもので、実際のコストはもっと高い
結局、この構造は長くは続かないだろう
モデルが継続的に訓練されなければ、トークンの価値は下がる
私たちのチームがClaude CodeをAPIで使えば月20万ドルかかるが、実際にはMaxサブスクリプションで月1,400ドルしか払っていない
ユーザーあたり5万ドル水準だが、JSONトークン数を見ると大半がキャッシュ済みリクエストなので、実際のコストはかなり低いようだ
実際のコストは2.5万〜3万ドル程度だろう。Forbesの5,000ドル推定は誇張である
npx ccusageでローカルログを確認すれば、API基準のコストを計算できるAnthropicのコンピューティングが完全に飽和しているなら、Claude Codeのヘビーユーザーはユーザーあたり5,000ドルの機会費用を発生させうる
しかしこの比較は、Rolexと無名時計のギア数を比べるのと同じくらい不適切である
Anthropicも同様で、ユーザーが不確かな品質に疑問を抱いたり、APIベース課金へ移行したりする可能性が高い
推論コストと利益率は、オープンウェイトモデルと大手クラウドプロバイダの間で大きく異なる
製薬業界におけるR&Dコストとジェネリック生産費の差に似ている
OpenAIの推論マージンは約70%、Anthropicは40〜90%と推定されている
関連記事: Phemex, SaaStr, The Information, Investing.com
会計基準上は、すでにモデルごとの収益が訓練費を相殺している可能性もある
ただしキャッシュフローベースでは、まだcashflow positiveではない
この違いを理解しないと、AI業界全体を過小評価してしまう
Opus 4.6のモデルサイズがどの程度なのか確信がない
Qwen397Bよりはるかに大きいと推定している
AnthropicがAPIで収益を上げているのは確かだろうが、90%マージンではないだろう
キャッシュはほぼ無料に近いが、実際には完全に無料ではない
キャッシュトークンのコストを差し引くと、200ドルのサブスクリプションの実際のコンピューティング利用量は約800ドル相当に下がる
コンピューティングの大半はアイドル状態である可能性が高い
キャッシュがヒットしなければ、そのぶん機会費用が発生する
CursorはAnthropicの小売API価格でOpus 4.6を使わなければならないため、ヘビーユーザー1人あたり月5,000ドルかかりうる
一方でAnthropicの実コストは500ドル程度だろう
最近SwixポッドキャストでCursorのクラウドエージェント戦略を聞いたが、参入障壁は下がりつつある
Claudeのサブスクリプションはスポットインスタンスの概念に近い
APIはオンデマンドサービスであり、優先順位はAPIにある
余剰コンピューティングはサブスクリプションユーザーに割り当てられ、容量が不足すると量子化された低価格モデルへルーティングされる
このようなサブスクリプションは遊休リソースを活用し、予測可能なワークフローによってモデル訓練の品質を高める役割も果たす
Qwen Code、Codex、Claudeをすべて使ってみたが、CodexはQwenより2倍、ClaudeはCodexより2倍良かった
そのためClaude OpusはQwen Codeより4〜5倍高いはずだと考える