6 ポイント 投稿者 GN⁺ 2025-02-08 | 1件のコメント | WhatsAppで共有

理解する: 推論モデル

  • 推論モデルの定義: 推論モデルとは、複雑な問題を解くために、中間ステップを含む多段階の生成が必要な質問に答えるプロセスのこと。たとえば、"列車が時速60マイルで3時間移動すると、どれだけ進むか?" のような質問は、単純な事実ベースの質問とは異なり、推論を必要とする。

  • 推論モデルの必要性: パズル、高度な数学問題、複雑なコーディング問題のような複雑なタスクに適している。しかし、要約、翻訳、知識ベースの質問応答のような単純なタスクには必要ない。推論モデルはコストが高く、時には考えすぎによって誤りが生じることもある。

DeepSeek R1 トレーニングパイプライン

  • DeepSeek-R1-Zero: 671Bの事前学習済みDeepSeek-V3ベースのモデルで、強化学習(RL)のみで訓練されている。これは「コールドスタート」訓練と呼ばれ、一般的なRLHFとは異なり、教師ありファインチューニング(SFT)段階がない。

  • DeepSeek-R1: DeepSeekの主力推論モデルで、DeepSeek-R1-Zeroをベースに、追加のSFT段階とRL訓練によって改善されている。

  • DeepSeek-R1-Distill: 前段階で生成されたSFTデータを使ってQwenおよびLlamaモデルをファインチューニングし、推論能力を向上させる。

推論モデルの構築と改善のための4つの主要手法

  1. 推論時スケーリング: 推論中の計算資源を増やして出力品質を向上させる方法。たとえば、「段階的に考えよう」のような文句を入力プロンプトに含め、モデルが中間推論ステップを生成するよう誘導する。

  2. 純粋な強化学習(RL): DeepSeek-R1-Zeroは、純粋なRLを通じて推論が行動として現れうることを示している。正確性報酬と形式報酬を使って、モデルが基本的な推論技術を発達させるようにしている。

  3. 教師ありファインチューニング(SFT)と強化学習(RL): DeepSeek-R1は、SFTとRLを組み合わせて推論性能を向上させている。これは高性能な推論モデルを構築するうえで重要なアプローチである。

  4. 純粋な教師ありファインチューニング(SFT)と蒸留: DeepSeekは、より小さなモデルを訓練して効率性を高めている。これはより小さなモデルでありながら、DeepSeek-R1-Zeroと比べて相対的に強力な性能を示している。

DeepSeek R1 についての考え

  • DeepSeek-R1はオープンソースのMITライセンスで提供されており、研究者にとって有用なリソースとなる。OpenAIのo1と比較した場合、DeepSeek-R1は推論時間の面でより効率的である。しかし、OpenAIのo1に関する詳細情報が不足しているため、直接比較は難しい。

限られた予算での推論モデル開発

  • モデル蒸留はコスト効率の高い代替手段になりうる。DeepSeekチームはR1-distilledモデルを通じてこれを実証しており、これはDeepSeek-R1よりはるかに小さいが、強力な推論性能を示している。

1件のコメント

 
GN⁺ 2025-02-08
Hacker Newsの意見
  • LLMの推論モデルは、コーディングや数学の問題に過度に最適化される傾向がある

    • 明確に定義されていない問題ほど、より多くの推論が必要であり、これは単なるソフトウェアエンジニアリングの曖昧さを超える必要がある
    • LLMは数学の問題に過度に合わせられており、他の分野では十分に考えない傾向がある
    • 自己学習を好み、複雑なテーマを理解し、誤解を見抜ける対話相手が必要である
    • LLMはコーディングの問題をうまく解けるが、コーディング/数学パズルに過度に合わせられている
  • LLMを自然言語ではなく、制限された形式言語で訓練する研究が必要である

    • LeanとChatGPTの統合作業はあるが、自然言語で訓練されたLLMが主導するやり方ではない
    • 創造的にさまざまな試みを行い、誤った経路を避けられるシステムを想像している
  • 推論モデルの「考えすぎ」が次の大きな問題になる可能性がある

    • より深く考えることが、常に良いとは限らない
  • R1論文は読みやすく、結果がそれ自体を説明している

    • R1、V3、DeepSeekMathの論文を読んでみることを勧める
  • LLMが実際に「考えている」のかどうかは別の議論である

    • コンピュータが考えられるかどうかは、ずっと前に決着した問題である
  • AIが医療画像で過剰な識別を行う実例がある

    • 訓練データが、がんを示す要素として認識するようにしてしまう
  • LLMには推論できないことを理解すべきである

  • DeepSeek-R1技術報告書における「aha moment」の主張は疑わしい

    • DeepSeek V3モデルがベースであり、考えすぎや形式面の問題を抱えている
    • コミュニティはパイプラインの再実装を試みている
  • 数か月前にHNでLLM改善のための精製手法を提案しており、これは現在「推論」として説明されている

    • DeepSeekが単純な方法で市場を席巻するとは思わなかった
    • 直感を真剣に受け止めるべきである