- OpenAI/Anthropic互換形式で動作し、SDK設定の
base_urlだけを変更すれば同じ方法でDeepSeek APIにアクセスできる
- デフォルトのモデル選択肢として**
deepseek-v4-flashとdeepseek-v4-pro**が表示され、deepseek-chatとdeepseek-reasonerは2026/07/24にdeprecated予定
- 互換性維持のため、
deepseek-chatは**deepseek-v4-flashのnon-thinkingモード**、deepseek-reasonerはthinkingモードに対応する
- Chat APIは
https://api.deepseek.com/chat/completionsエンドポイントにAuthorization: Bearer ${DEEPSEEK_API_KEY}ヘッダーとJSONボディで呼び出し、例ではdeepseek-v4-pro、thinking、reasoning_effort="high"、stream=falseを使用する
- PythonとNode.jsの両方でOpenAI SDKの呼び出し例を提供しており、応答は
choices[0].message.contentから読み取り、streamの値をtrueに変更するとストリーミング応答を受け取れる
API呼び出しの開始
- DeepSeek APIはOpenAI/Anthropic互換形式を使用しており、設定だけを変更すればOpenAIまたはAnthropic SDKと、そのAPI互換ソフトウェアからアクセスできる
- 利用可能なモデルとして**
deepseek-v4-flash、deepseek-v4-pro**、deepseek-chat、deepseek-reasonerが表示される
deepseek-chatとdeepseek-reasonerは2026/07/24にdeprecated予定
- 互換性維持のため、
deepseek-chatはdeepseek-v4-flashのnon-thinkingモードに対応する
deepseek-reasonerはdeepseek-v4-flashのthinkingモードに対応する
Chat API呼び出し
- APIキーを発行すると OpenAI API形式の例でDeepSeekモデルにアクセスできる
- 例はnon-stream呼び出しで、
streamの値をtrueに変更するとストリーミング応答を受け取れる
- Anthropic API形式の例はAnthropic APIで確認できる
curlの例はhttps://api.deepseek.com/chat/completionsにリクエストを送り、Authorization: Bearer ${DEEPSEEK_API_KEY}ヘッダーとJSONボディをあわせて使用する
- モデルは
deepseek-v4-proに指定される
messagesにはsystemメッセージ"You are a helpful assistant."とuserメッセージ"Hello!"が含まれる
thinkingは{"type": "enabled"}に設定される
reasoning_effortは"high"に設定される
streamはfalseに設定される
- Python例はOpenAI SDKを先にインストールしてから進める
- インストールコマンドは
pip3 install openai
OpenAIクライアントではapi_key=os.environ.get('DEEPSEEK_API_KEY')とbase_url="https://api.deepseek.com"を使用する
client.chat.completions.create呼び出しでモデルはdeepseek-v4-pro、stream=False、reasoning_effort="high"に設定される
extra_body={"thinking": {"type": "enabled"}}をあわせて渡す
- 応答は
response.choices[0].message.contentとして出力する
- Node.js例もOpenAI SDKを先にインストールしてから進める
- インストールコマンドは
npm install openai
OpenAIインスタンスはbaseURL: 'https://api.deepseek.com'とapiKey: process.env.DEEPSEEK_API_KEYを使用する
openai.chat.completions.create呼び出しでmessages、model: "deepseek-v4-pro"、thinking: {"type": "enabled"}、reasoning_effort: "high"、stream: falseを設定する
- 結果は
completion.choices[0].message.contentとして出力する
1件のコメント
Hacker Newsのコメント
v4 proのような巨大モデルで、100万トークン出力あたり4ドル程度というのを見ると、「最前線の研究所が推論に狂ったレベルで補助金を突っ込んで回している」という話が本当に正しいのかはよく分からない
サブスクリプションでも十分採算が取れそうだし、API価格は言うまでもない感じがする
入力は $1.74/M、出力は OpenRouter 基準で $3.48/M
今年下半期に Ascend 950 コンピューティングカードが出れば Pro の価格は大きく下がると、プレスリリースで述べていたらしい
ただ、そのコスト見積もりも最近は想定より高くなる流れではある
サブスクサービス はすでに利益が出ていて、補助金という話は結局、企業向け API でより高いマージンを取るためのロジックに見える
中国は電力コストもより安い
派手なプレスリリースより先に 開発者向けドキュメント が出たのは、妙にほっこりする
修正されたのを見ると、上位コメントでは "open source" という表現は消えたようだ
もう OpenRouter に載っていた
Pro は入力 $1.74/m、出力 $3.48/m、Flash は入力 $0.14/m、出力 $0.28/m
こちらでは Api Error が出る
他のモデルは全部正常に動く
https://openrouter.ai/deepseek/deepseek-v4-pro
https://openrouter.ai/deepseek/deepseek-v4-flash
中国から本当に オープンソース が出てくるのはうれしい
裏の意図があるかもしれないのは分かるが、それでも心が動く
中国の隠れた意図 は仮定にすぎないが、米国側は露骨に表に出ている
http://try.works/why-chinese-ai-labs-went-open-and-will-remain-open
1.6T Pro base model が Hugging Face に上がっていた
T級モデル という表記を見るのはここでは初めてだ
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
モデルが公開されていて、かなり印象的だ
フロンティア級の性能 なのにコストはずっと低く、Opus 4.6 より良いように感じる
Opus の利用者はどうせ今後も最高だと信じ続けるし、使っていない人はそのコスト・ロックイン・制限を望まない
自分のような非ユーザーは、今でも仕事を終わらせてくれる最も安くて速いモデルを使っていて、今は MiniMax M2.5 がその役割だ
たまにより高価な最新モデルを使ってみても結果は似ていて、AI業界全体の誇張 が、進歩しているように見せているのはベンチマークだけなのではと思うこともある
今週ずっと Anthropic Opus 4.7 ハッカソンに参加しながら 4.7 を集中的に使っていたが、トークン消費は 4.6 よりずっと多いものの、かなり印象的だった
エージェントハーネスで実際のコーディングも試したのか知りたい
コーディング能力が Claude Code + Opus 4.6 より上なら、すぐに乗り換えるつもりだ
毎日のように Opus 4.6より良い というリリース投稿が出るが、当の deepseek 自身も thinking を含めた基準で opus より上だとは主張していない
Dsv3 はベンチマークだけを盛るタイプのモデルではなく、ベンチ外の課題でもかなり安定していて、SoTA には届かなくても十分良かった
今回のモデルも似たような感じに見える
最高性能のすぐ下 のレベルだが差は大きくなく、価格はずっと安い
大きいモデルは今のところ ds が直接 $1.74 in / $3.48 out / $0.14 cache で提供していて、価値に対して非常に安い
小さいモデルは $0.14 in / $0.28 out / $0.028 cache で、事実上 安すぎて気にしなくていいレベル だし、自宅で動かす現実的な候補になり得る
性能さえ十分なら haiku や gemini-flash 系と十分競争できそうだ
平均改善幅はおよそ 2%程度 で、これがすごいのか地味なのか正直微妙だ
Claude 4.6 は長文脈の質問応答、特に CorpusQA の corpuses と MRCR のマルチラウンド対話でほぼ 10pp 良かった
一方で DSv4 は IMOAnswerBench で実に 14pp、SimpleQA-Verified で 12pp 高かった
重みはここから入手できる
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro
https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash-Base
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro-Base
新しい base モデル まで出ていて本当にうれしい
この分野にはかなり深く関心があり、実際に多くが懸かってもいるのだが、正直もう全部を追いかけようとして 燃え尽き てきた
AI の進歩に追いつくには、もう AI が AI の進歩を要約してくれないと無理な時点 をとっくに過ぎている感じがする
ニュースと同じで、本当に知る必要がある時が来れば、誰かが先に教えてくれるものだ
スポーツを追うように見ればよく、首位が入れ替わること 自体を受け入れれば、そこまできつくはない
新モデルが出てもベンチマークがいくつか良くなったという話ばかりで、実際に使った主観的な体験はほとんど変わらない
それ以降、本当に驚くようなものはあまりなく、今は熱心な層だけが関心を持つ方向で停滞している感じもある
High Flyer がこれを作るために Anthropicを露骨に真似したこと 自体より、GAB がその中に xz級のイースターエッグ を何十個も仕込む時間を十分に稼がせたことのほうが気に障る
さっき OpenRouter 経由で Pi Coding agent で試してみたが、read と write ツールを まともに使えないことがよくある
かなりがっかりで、「直接呼び出しを使わず、必ず提供されたツールを使え」のようなプロンプト以外に、もっと良い解決策があるのか気になる
おそらく Piとの事前テスト はまだ十分にできていない可能性が高い