25 ポイント 投稿者 davespark 2026-02-24 | まだコメントはありません。 | WhatsAppで共有

Google Researchチームが発表した論文(「Prompt Repetition Improves Non-Reasoning LLMs」)で見つかった、非常にシンプルでありながら強力な手法:
同じプロンプトをそのまま2回繰り返して入力すると、ほとんどの最新LLM(Gemini、GPT-4o、Claude、DeepSeekなど)で精度が大きく向上するという結果。

主なポイント:

  • LLMの自己回帰的(autoregressive)な構造のため、プロンプト情報の順序や一度しか見ないことに弱い → 重要な情報が後ろにあったり参照が必要な課題でよく誤る。
  • プロンプトを2回繰り返して入力 → prefill(入力解析)段階で同じ内容を2回処理することになり、モデル内部の表現がより正確になって、参照・記憶のエラーが大幅に減る。
  • 生成段階(出力トークン生成)にはほとんど影響しない → 推論時間・出力長はほぼ増えない(Claudeのようにコンテキストが非常に長い場合は例外)。
  • 実験結果: 7モデル × 複数ベンチマークの70組み合わせのうち47件で改善、大きく悪化したケースは1件もなかった。
  • 極端な例: 「50個の名前リストのうち25番目の名前は?」という課題
    → Gemini 2.0 Flash Liteの基本精度21% → 反復後97%(ほぼ完璧)
  • Chain-of-Thoughtのような複雑な推論課題では効果は小さい(すでに参照処理がうまくできている場合)。
  • 欠点: プロンプトがすでに非常に長い場合はprefill時間が増えたり、3回以上繰り返すとトークン制限にかかる可能性がある。

結論
「Think step by step」と同じくらい有名になりうる、驚くほどシンプルでほとんどコストのかからない精度向上テクニック。
特に単純な参照・リスト処理・構造化データへの質問で、すぐに使える実用的なヒントとして注目される。

https://aisparkup.com/posts/9574

まだコメントはありません。

まだコメントはありません。