10 ポイント 投稿者 GN⁺ 5 일 전 | 1件のコメント | WhatsAppで共有
  • OpenAI/Anthropic互換形式で動作し、SDK設定のbase_urlだけを変更すれば同じ方法でDeepSeek APIにアクセスできる
  • デフォルトのモデル選択肢として**deepseek-v4-flashdeepseek-v4-pro**が表示され、deepseek-chatdeepseek-reasonerは2026/07/24にdeprecated予定
  • 互換性維持のため、deepseek-chatは**deepseek-v4-flashのnon-thinkingモード**、deepseek-reasonerはthinkingモードに対応する
  • Chat APIはhttps://api.deepseek.com/chat/completionsエンドポイントにAuthorization: Bearer ${DEEPSEEK_API_KEY}ヘッダーとJSONボディで呼び出し、例ではdeepseek-v4-prothinkingreasoning_effort="high"stream=falseを使用する
  • PythonとNode.jsの両方でOpenAI SDKの呼び出し例を提供しており、応答はchoices[0].message.contentから読み取り、streamの値をtrueに変更するとストリーミング応答を受け取れる

API呼び出しの開始

  • DeepSeek APIはOpenAI/Anthropic互換形式を使用しており、設定だけを変更すればOpenAIまたはAnthropic SDKと、そのAPI互換ソフトウェアからアクセスできる
  • 利用可能なモデルとして**deepseek-v4-flashdeepseek-v4-pro**、deepseek-chatdeepseek-reasonerが表示される
    • deepseek-chatdeepseek-reasoner2026/07/24にdeprecated予定
    • 互換性維持のため、deepseek-chatdeepseek-v4-flashのnon-thinkingモードに対応する
    • deepseek-reasonerdeepseek-v4-flashのthinkingモードに対応する

Chat API呼び出し

  • APIキーを発行すると OpenAI API形式の例でDeepSeekモデルにアクセスできる
    • 例はnon-stream呼び出しで、streamの値をtrueに変更するとストリーミング応答を受け取れる
    • Anthropic API形式の例はAnthropic APIで確認できる
  • curlの例はhttps://api.deepseek.com/chat/completionsにリクエストを送り、Authorization: Bearer ${DEEPSEEK_API_KEY}ヘッダーとJSONボディをあわせて使用する
    • モデルはdeepseek-v4-proに指定される
    • messagesにはsystemメッセージ"You are a helpful assistant."とuserメッセージ"Hello!"が含まれる
    • thinking{"type": "enabled"}に設定される
    • reasoning_effort"high"に設定される
    • streamfalseに設定される
  • Python例はOpenAI SDKを先にインストールしてから進める
    • インストールコマンドはpip3 install openai
    • OpenAIクライアントではapi_key=os.environ.get('DEEPSEEK_API_KEY')base_url="https://api.deepseek.com";を使用する
    • client.chat.completions.create呼び出しでモデルはdeepseek-v4-prostream=Falsereasoning_effort="high"に設定される
    • extra_body={"thinking": {"type": "enabled"}}をあわせて渡す
    • 応答はresponse.choices[0].message.contentとして出力する
  • Node.js例もOpenAI SDKを先にインストールしてから進める
    • インストールコマンドはnpm install openai
    • OpenAIインスタンスはbaseURL: 'https://api.deepseek.com'apiKey: process.env.DEEPSEEK_API_KEYを使用する
    • openai.chat.completions.create呼び出しでmessagesmodel: "deepseek-v4-pro"thinking: {"type": "enabled"}reasoning_effort: "high"stream: falseを設定する
    • 結果はcompletion.choices[0].message.contentとして出力する

1件のコメント

 
GN⁺ 5 일 전
Hacker Newsのコメント
  • v4 proのような巨大モデルで、100万トークン出力あたり4ドル程度というのを見ると、「最前線の研究所が推論に狂ったレベルで補助金を突っ込んで回している」という話が本当に正しいのかはよく分からない
    サブスクリプションでも十分採算が取れそうだし、API価格は言うまでもない感じがする
    入力は $1.74/M、出力は OpenRouter 基準で $3.48/M

    • 今は DeepSeekの推論カード不足 もあって価格が高い、という説明もある
      今年下半期に Ascend 950 コンピューティングカードが出れば Pro の価格は大きく下がると、プレスリリースで述べていたらしい
    • 運用費ベースでは黒字かもしれないが、現時点では 減価償却スケジュール まで含めた資本費ベースではまだそうではない可能性がある
      ただ、そのコスト見積もりも最近は想定より高くなる流れではある
    • 自分もだいたい同じ見方だ
      サブスクサービス はすでに利益が出ていて、補助金という話は結局、企業向け API でより高いマージンを取るためのロジックに見える
    • その指摘はその通りだが、その価格帯にまだ到達している 西側のプロバイダー はない
      中国は電力コストもより安い
  • 派手なプレスリリースより先に 開発者向けドキュメント が出たのは、妙にほっこりする

    • そう、まさに this is the way
    • これを オープンソース と呼ぶなら、学習データと学習スクリプトはどこにあるのかと思う
      修正されたのを見ると、上位コメントでは "open source" という表現は消えたようだ
  • もう OpenRouter に載っていた
    Pro は入力 $1.74/m、出力 $3.48/m、Flash は入力 $0.14/m、出力 $0.28/m

  • 中国から本当に オープンソース が出てくるのはうれしい
    裏の意図があるかもしれないのは分かるが、それでも心が動く

    • 米国企業は、モデルへのアクセス料金を払うのに過剰なレベルの本人確認を要求し、データを保存・分析・学習に使い、要請があれば当局に渡すこともあると公然と言っている
      中国の隠れた意図 は仮定にすぎないが、米国側は露骨に表に出ている
    • 中国の研究所がなぜモデルを公開するのかを理解するには、この記事が役に立つ
      http://try.works/why-chinese-ai-labs-went-open-and-will-remain-open
    • オープンウェイト なだけだ
  • 1.6T Pro base model が Hugging Face に上がっていた
    T級モデル という表記を見るのはここでは初めてだ

  • https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

    モデルが公開されていて、かなり印象的だ
    フロンティア級の性能 なのにコストはずっと低く、Opus 4.6 より良いように感じる

    • もうモデルを Opus と比較する必要があるのか疑問だ
      Opus の利用者はどうせ今後も最高だと信じ続けるし、使っていない人はそのコスト・ロックイン・制限を望まない
      自分のような非ユーザーは、今でも仕事を終わらせてくれる最も安くて速いモデルを使っていて、今は MiniMax M2.5 がその役割だ
      たまにより高価な最新モデルを使ってみても結果は似ていて、AI業界全体の誇張 が、進歩しているように見せているのはベンチマークだけなのではと思うこともある
    • Opus 4.7 と比べるとどうなのか気になる
      今週ずっと Anthropic Opus 4.7 ハッカソンに参加しながら 4.7 を集中的に使っていたが、トークン消費は 4.6 よりずっと多いものの、かなり印象的だった
    • 本当に Opus 4.6より良い のか、それとも単にベンチマーク最適化がうまいだけなのか気になる
      エージェントハーネスで実際のコーディングも試したのか知りたい
      コーディング能力が Claude Code + Opus 4.6 より上なら、すぐに乗り換えるつもりだ
    • また始まったなという感じだ
      毎日のように Opus 4.6より良い というリリース投稿が出るが、当の deepseek 自身も thinking を含めた基準で opus より上だとは主張していない
      Dsv3 はベンチマークだけを盛るタイプのモデルではなく、ベンチ外の課題でもかなり安定していて、SoTA には届かなくても十分良かった
      今回のモデルも似たような感じに見える
      最高性能のすぐ下 のレベルだが差は大きくなく、価格はずっと安い
      大きいモデルは今のところ ds が直接 $1.74 in / $3.48 out / $0.14 cache で提供していて、価値に対して非常に安い
      小さいモデルは $0.14 in / $0.28 out / $0.028 cache で、事実上 安すぎて気にしなくていいレベル だし、自宅で動かす現実的な候補になり得る
      性能さえ十分なら haiku や gemini-flash 系と十分競争できそうだ
    • 公開されているベンチマークの数値でざっくり計算すると、両方にスコアがある 20 指標で合計 20.1パーセントポイント差 がある
      平均改善幅はおよそ 2%程度 で、これがすごいのか地味なのか正直微妙だ
      Claude 4.6 は長文脈の質問応答、特に CorpusQA の corpuses と MRCR のマルチラウンド対話でほぼ 10pp 良かった
      一方で DSv4 は IMOAnswerBench で実に 14pp、SimpleQA-Verified で 12pp 高かった
  • 重みはここから入手できる
    https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro

  • この分野にはかなり深く関心があり、実際に多くが懸かってもいるのだが、正直もう全部を追いかけようとして 燃え尽き てきた
    AI の進歩に追いつくには、もう AI が AI の進歩を要約してくれないと無理な時点 をとっくに過ぎている感じがする

    • 追いかけようとしないほうがいい
      ニュースと同じで、本当に知る必要がある時が来れば、誰かが先に教えてくれるものだ
    • 主要プレイヤーはほとんど変わらない
      スポーツを追うように見ればよく、首位が入れ替わること 自体を受け入れれば、そこまできつくはない
    • 体感では GPT-4以降 はずっと似たり寄ったりだ
      新モデルが出てもベンチマークがいくつか良くなったという話ばかりで、実際に使った主観的な体験はほとんど変わらない
      それ以降、本当に驚くようなものはあまりなく、今は熱心な層だけが関心を持つ方向で停滞している感じもある
  • High Flyer がこれを作るために Anthropicを露骨に真似したこと 自体より、GAB がその中に xz級のイースターエッグ を何十個も仕込む時間を十分に稼がせたことのほうが気に障る

  • さっき OpenRouter 経由で Pi Coding agent で試してみたが、read と write ツールを まともに使えないことがよくある
    かなりがっかりで、「直接呼び出しを使わず、必ず提供されたツールを使え」のようなプロンプト以外に、もっと良い解決策があるのか気になる

    • 出たばかりなので、少し待ってみるのがよさそうだ
      おそらく Piとの事前テスト はまだ十分にできていない可能性が高い