1 ポイント 投稿者 GN⁺ 3 시간 전 | 1件のコメント | WhatsAppで共有
  • DeepClaudeは、Claude Code CLIのツールループ、ファイル編集、bash、gitのフローは維持したまま、API呼び出し先だけをDeepSeek V4 Pro、OpenRouter、Fireworks AI、Anthropic互換バックエンドに置き換える
  • Claude Codeには月額**$200**の料金と利用量制限がある一方、DeepSeek V4 ProはLiveCodeBench 96.4%のスコアと、出力トークン$0.87/Mの価格を打ち出している
  • ファイルの読み取り・書き込み・編集、Bash/PowerShellの実行、Glob/Grep検索、多段階の自律ツールループ、サブエージェントの生成、git作業、/init、デフォルトで有効なthinking modeが動作する
  • デフォルトのバックエンドはDeepSeekで、OpenRouterは米国サーバーと低レイテンシ、Fireworks AIは高速推論、Anthropicは難しい問題でClaude Opusを使う選択肢として提供される
  • バックエンド別の価格は、DeepSeekとOpenRouterが入力**$0.44/M**・出力**$0.87/M**、Fireworks AIが入力**$1.74/M**・出力**$3.48/M**、Anthropicが入力**$3.00/M**・出力**$15.00/M**とされている
  • DeepClaudeはANTHROPIC_BASE_URLANTHROPIC_AUTH_TOKENANTHROPIC_DEFAULT_OPUS_MODELANTHROPIC_DEFAULT_SONNET_MODELANTHROPIC_DEFAULT_HAIKU_MODELCLAUDE_CODE_SUBAGENT_MODELをセッション単位で設定し、終了時に元の設定を復元する
  • DeepSeekの自動コンテキストキャッシュは、最初のリクエスト以降にシステムプロンプトとファイルコンテキストを**$0.004/M**でキャッシュし、反復ターンのエージェントループコストを下げる
  • 利用量の比較では、Anthropic Maxの**$200/月に対し、DeepClaudeは軽い利用で約$20/月**、多い利用で約**$50/月**、自動ループを含めても約**$80/月**とされる
  • 制限も明確で、DeepSeekのAnthropicエンドポイントは画像入力をサポートせず、Claude Codeは基本的にツールを順次送信し、MCP server toolsは互換レイヤー経由ではサポートされず、Anthropicのcache_controlは無視される
  • セッション中に再起動せずバックエンドを切り替えるlive switchingをサポートし、localhost:3200プロキシが/v1/messagesをアクティブなバックエンドへ送信し、/_proxy/mode/_proxy/status/_proxy/costの制御エンドポイントを提供する
  • Claude Code内で/deepseek/anthropic/openrouterのようなスラッシュコマンドを使うか、deepclaude --switch dsでバックエンドを切り替えられ、プロキシはトークン使用量とAnthropic比の節約額も計算する
  • VS Code/Cursorのターミナルプロファイルとして実行でき、--remoteはブラウザでClaude Codeセッションを開く一方、WebSocketブリッジにはAnthropicを使い、モデルAPI呼び出しはローカルプロキシ経由でDeepSeekなどへ送る
  • リモート制御にはclaude auth login、claude.aiのサブスクリプション、プロキシ用のNode.js 18+が必要で、プロジェクトライセンスはMIT

1件のコメント

 
GN⁺ 3 시간 전
Hacker Newsのコメント
  • Claude CodeをDeepSeek APIで動かすのは、実質的には環境変数をいくつか指定するシェルラッパーで可能
    ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropicANTHROPIC_AUTH_TOKENANTHROPIC_MODELを設定して claude $@ を実行する程度

    • 機密でないプロジェクトでは、1週間ほど DeepSeek v4 でこのように使っているが、無茶な作業をさせていないからか、ほとんど差を感じない
      ただしDeepSeek APIでは学習からの除外を選べないようで、他のプロバイダで提供されればもっと良くなりそう。OpenRouterは現状、DeepSeekへの単なるプロキシに見える
    • Claudeをいじるプロジェクトは、コード4行でも Hacker News 1位 になるように見える
    • deepclaudeでもっと興味深いのは、セッションの途中で モデルを切り替えるローカルプロキシ と統合コスト追跡機能
      ただ、LLMが書いたようなREADMEのせいでこれらの機能がかなり埋もれており、履歴を見ると後から追加されたのにREADMEの構成を組み直していないようだ
      作者は効果がありそうなソーシャルメディア広告計画までコミットしている: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • そこで https://getaivo.dev を作った。コーディングエージェントから直接モデルを使える
      aivo claude -m deepseek-v4-pro のように実行すればよい
    • 本質的には、この方法のおかげでローカルモデルも含め どんなモデルでも Claude Code と一緒に使えるようになる
  • これが何を意味するのかよくわからない。DeepSeekはすでにClaude Codeを含む複数のCLIでAPIを使う方法を案内している
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • READMEが、実際には些細ではない機能を完全に埋もれさせている。セッション途中の モデル切り替えプロキシ を動かし、Anthropicと他モデルを併用する際のコストを統合追跡する
      READMEを書いたLLMが、こうした機能を強調するよう一般的なプロジェクト説明を更新しなかったようだ
      作者の広告計画もコミットされている: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • たぶん大した意味はないと思う。何かをきちんと理解も調査もしないまま、最初の思いつきを一気に形にしてHNのトップページやあらゆるSNSに投げた感じがする
    • バイブコーダーがバイブコーダーのために作ったツールのように見える
    • ツール呼び出し形式は完全に同じではないと見た。だから、任意のAIをClaude Codeにつなぐには 形式変換 が必要になりそう
    • 実際にどれくらいうまく動くのか気になる。DeepSeekをHermesとOpencodeで使ったが、システムプロンプトで強く誘導しても、Hermesのホログラフィックメモリツールのような基本ツールを使う能力はかなり低かった
  • Claude Codeの代替 を探すなら、まず実行フレームワークとしてpi.devやopencodeを見ることを勧める
    モデルはOpenCode Goが今のところ最もコスト効率が良さそうで、OpenRouterやDeepSeekへの直接接続も可能。個人的にはKimi系に行って、kimi.comのサブスクリプションを買うほうが良いと思う

    • 自分の実行フレームワークも候補として挙げておく: https://codeberg.org/mlow/lmcli
    • pi.devやopencodeも良いが、自分が使いたい プラグインやスキル はClaude Code側がいちばん多い
    • 同意する。OpenCodeはしっかりした土台で、いくつか手を入れれば非常に効果的な実行フレームワークになり得る
      個人サイドプロジェクトのmouse.devでは、OpenCode、Claude Code、Hermesの一部を組み合わせて、モバイルでもうまく動くクラウドエージェント構成を作っている
    • pi.devを見てみたが、GitHubのオープンなissueが7件しかなくて不審だった
      調べてみたら、ボットがすべてのissueを自動で閉じていただけだった。本当に言葉もない
    • Ollama Cloud もコスト効率が非常に高い。1か月使って5時間制限に引っかかったのは1回だけで、その時もエージェント8個を2時間同時に回していたときだった
  • トークン価格が 100万トークンあたり1ドル 程度でも、200ドル分のトークンを使うのは驚くほど簡単
    どう計算してもコーディング向け料金プランのほうがコスパが良い

  • Sonnet級の性能で十分なら、これは確かにアップグレードに聞こえる
    ただ、Sonnetはミスが多すぎるので、そのクラスのモデルでコスト最適化しても結局あまり価値がないと感じる。それでも選択肢が増えるのは良いことだ

    • 多くの人が、設計には Opus を使い、実装にはローカルホストしたqwen3.6を使う形で良い結果を得ている
      設計をOpus、実装をDeepSeekに分ければ、コストはかなり下げられそう。個人的にはAnthropicを完全に避けるが、なぜ使うのかは理解できる
    • まだ、最前線の全モデルの知能が大体横並びになって、速度や有効コンテキストウィンドウのような他要素で選べる飽和状態にはなっていない
      会社であれ従業員であれ、今使える 最高のモデル と、最も高いか少なくとも2番目に高い思考強度を使わない理由はあまり見当たらない。料金は安くはないが、そこまで高すぎるわけでもない
    • 要は、良いモデルではなく 最良のモデル が必要だということ
      良いアーキテクチャを作るには仕様やコードなどを大量に読む必要があり、その分入出力トークンも多くなる。バグ修正も、ログやDatadogまで含めれば同じだ
      方向性が見えた後のパッチは些細で、リファクタリングや整理作業でもない限り、安いモデルで節約できる金額も小さい
      テストはますます複雑になっている。opencode goを見るだけでも、GLM-5.1、GLM-5、Kimi K2.5、Kimi K2.6、MiMo-V2-Pro、MiMo-V2-Omni、MiMo-V2.5-Pro、MiMo-V2.5、Qwen3.5 Plus、Qwen3.6 Plus、MiniMax M2.5、MiniMax M2.7、DeepSeek V4 Pro、DeepSeek V4 Flashが入っている
      これからはバグを抱えたまま、これらのモデルを自分で大規模に回さなければならないが、ここで何か見落としているのかもしれない。より安いモデルの本当の用途が気になる
    • この教訓を何度も学び直している。低位モデルでうまく進めていても、あまりに複雑な問題を投げると、いくつものモデルを試した末に結局あきらめて Opus 4.6 を呼び、片づけてもらうことになる
    • Sonnetではまったくそうは感じない。しっかりした Claude.md があり、定期的に出力をレビューし、基本的なCIゲートで良いコード習慣を強制すれば、Opusに切り替える必要があったことはほとんどない
  • たいてい環境変数を2つ設定する程度のことを AIにワンショット でやらせたのでは、と思ってしまう

  • Claude Code が最高のコーディング実行フレームワークなのか気になる。これを評価しているところはあるのだろうか?

    • 個人的な感覚では違う。同じOpusモデルでも、Factory DroidやAmpのような サードパーティ製実行フレームワーク のほうがうまく動く
      一方でClaude Codeは、一般消費者向けMaxサブスクリプションと企業向けトークン割引の両方で最も補助が入っているツールだ。トークンキャッシュや思考量の削減など、コスト最適化もかなり強く効いており、その代償として品質が下がっている
  • 複数のCLIで DeepSeek V4 を使った結果、Langcliがいちばんしっくりきた。プログラミング作業ではキャッシュヒット率が95%を超える
    同じコンテキスト内でDeepSeek V4 Flash、V4 Pro、他の主要モデルをシームレスかつ動的に切り替えられ、Claude Codeとも100%互換だ

  • 半日かけて CUDAとLLAMA を5070TIで動かせるようにした
    Rooのエージェントモードで試せて、計画を書かせたところで止めたが、時間があれば続けてみるつもり
    DeepSeekは金さえ十分あればセルフホストできるので、突然撤回される可能性は低そうだが、それでもローカルソリューションのほうに期待している
    たいてい必要なのは単純労働であって、難問を解くことではない

  • いかにも バイブコーディング で共同執筆されたように見えるし、価格設定も合っていない

    • これからは、バイブコーディングされていないタイトルを見つけるほうが本当に難しくなりそう
    • 質の低いバイブコーディングだ。機械は細部を簡単に確認できるのだから、そういうところに使うべきだ