1 ポイント 投稿者 GN⁺ 4 일 전 | 1件のコメント | WhatsAppで共有
  • primitive set の Erdős sum の最小値が 1 であり、要素が無限大へ向かうにつれてその値に近づくという長年の問題が、GPT-5.4 Pro が作った解法によって解かれたものとして受け止められている
  • 解法は Liam Price が一度のプロンプトで得て erdosproblems.com に掲載した成果で、その後 Kevin Barreto と専門家たちの検討を経て急速に注目を集めた
  • 今回の証明は、人々が通常選んでいた最初のアプローチとは異なる経路をたどっており、関連分野で知られている公式 をこの問題に予想外の形で組み合わせた点が際立っている
  • ChatGPT の元の証明は、そのまま使うには非常に粗く、専門家が核心を見抜いて理解したうえで、より短く整った形に磨き上げられた
  • 著名な数学者たちでも解けなかった問題に LLM の新しいアプローチ が通用したという点で、大きな数の構造を見る方法や、似た問題同士をまとめて捉える見方に変化をもたらす可能性がある

問題と解決方法

  • primitive set とは、集合の中のどの数も別の数で割り切れない整数集合を指す
    • Erdős はこのような集合について計算する Erdős sum を定義し、集合の数が大きくなるほどこのスコアが下がると考えた
    • その最小値が正確に 1 であり、集合の要素が無限大へ向かうにつれてその値に近づくという予想が長く未解決のまま残っていた
  • 今回の解法 は、Liam Price が GPT-5.4 Pro に一度のプロンプトを入力して得た後、erdosproblems.com に掲載した成果である
    • Price は問題の背景史を知らないまま Erdős 問題を AI に入力してみる中で、見たところ正しそうな解法を得た
    • その後 Kevin Barreto とともに検討し、連絡を受けた専門家たちがすぐに注目した
  • 以前にも AI が複数の Erdős problems を解いたという報道はあったが、問題ごとに重要度や難度が大きく異なるため、数学的能力を測る基準としては不完全であり、見た目ほど新規性のない解法も少なくなかった
    • 今回の結果は、著名な数学者たちでも解けなかった問題を扱い、同種の問題に使われてこなかった方法を用いた点で異なるものとして受け止められている

なぜ異なる評価を受けるのか

  • 人々はこの問題を解く際、概して似たような最初のアプローチを選んでいたが、今回の LLM 解法はまったく異なる経路から入っている
    • 関連する数学分野ではよく知られた公式を持ち込んでいるが、この種の問題に適用しようとは思いつかなかった組み合わせだった
  • Terence Tao は、問題自体が思っていたより簡単だった可能性があり、初期アプローチにある種の mental block があったのではないかと指摘している
  • Jared Lichtman は、ChatGPT の元の証明はそのままでは非常に粗く、何を言おうとしているのかを専門家が見極めて理解する過程が必要だったと明かしている
    • 現在は Lichtman と Tao が証明をより短く磨き直し、LLM の核心的な洞察がよりよく伝わるよう整理した状態にある
  • 今回の飛躍は、大きな数とその構造を捉える 新しい思考法 へつながる可能性がある
    • 長期的な重要性を断定するにはまだ早いが、似た問題群が一つに結びついているという直感を裏づける方法として受け止められている

1件のコメント

 
GN⁺ 4 일 전
Hacker News のコメント
  • https://archive.ph/2w4fi

  • Paul Erdős は1900年代の大半を生きた、非常に有名でかなり風変わりな数学者だった。
    彼には、数学者たちが取り組んでいる問題を探し回って記録する習慣があり、その難易度も、今の学部生の宿題レベルから、解ければ Fields Medal 級のものまで非常に幅広かった。
    これらの問題をひとつに束ねる核心は、過去100年で最も聡明な人物の一人が即答できなかったという点にある。
    最近では LLM でこうした問題の証明を作らせ、ベンチマークのように使っており、新しいモデルが出るたびにいくつかずつ解かれている。

    • 数学者たちの反応を見ると、今回の Erdős の証明 はかなり特別なマイルストーンのように見える。
      以前にも複数の専門数学者が目を通していた問題で、出てきた証明は驚くほど美しく、新しいつながりまで示したという。
      以前の ChatGPT による Erdős 問題の解法は概してそこまで印象的ではなく、文献探索に近いか、比較的易しいのに放置されていた問題を解く程度に近く見えた。
      プロンプトを読むと、非定型でもよい という方向に後押ししたことが成功に一役買ったのかもしれないと気になる。
      [1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
    • 記事で扱っているのは 既存の未解決問題 を解いた事例なので、当然ながらより難しい部類に入る。
  • 実際の会話で使われたプロンプトはこれだった。
    インターネット検索はせず、number theory and primitive sets の問題について、自明ではなく新規性があり創造的な証明または反証を作ってみてほしい、というものだった。
    完全な unconditional proof または disproof を求めており、そのような主張には非凡で創造的な要素が必要かもしれないと改めて強調していた。
    そして Thought for 80m 17s が付いていた。
    https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c

    • 5.5 Pro, Extended Thinking で回してみると17分で、
      提案された bound は正しく、定数 1 は sharp だとしたうえで、
      w(a)= 1/alog(a)uniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x)) を証明すると出してきた。
      要求された 1+o(1) より強い結論だと主張していた。
      https://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
    • 私の場合は Pro で20分かかった。
      https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
      ただ、これが本当に正しい証明なのか判断できるほど数学に明るくはない。
    • 同じプロンプトを free plan で試したが、結果はかなり見劣りした。
  • 科学の進歩はしばしば、ある分野の手法 X を別の分野の問題 Y に持ち込むことで起こってきたが、LLM はこうした 分野横断の接続 で人間より強いように見える。
    一人の人間が知り得るよりはるかに多くの理論やアプローチを知っており、同僚の前で馬鹿に見えることを心配する必要もないからだ。

    • 私が考える reasoning もまさにこれだ。
      知識を一般化し、別のドメインに適用する能力のことだ。
    • 知的作業のかなりの部分は、実際には intellectual labor により近く、複数の情報を一か所で組み合わせる仕事だ。
      この作業では LLM は人間よりずっと優れており、人々はこれを伝統的に創造性だと誤分類してきた面もあるように見える。
    • 実際、私もこういう使い方をしている。
      とてつもないブレークスルーを生んだとは言えないが、ホワイトペーパーに書けそうな洞察のようなものを何度か得た感覚はある。
      複数分野をまたいで相関をつなぎ合わせてみる過程自体が、LLM の実験としてかなり面白い。
    • 文明は left-brained/sequential/language based なやり方で大きく前進してきており、コンピュータや AI はその頂点のように見える。
      私も子どもの頃はページ全体を一度に読む感じだったのに、ある時点で単語ごと・行ごとに読むようになり、そのモードが定着した。
      大学時代には一時期、自分の数学専攻の領域で、もっと深く広く非線形な認識が開けたこともあったが、それが左脳の熟達なのか右脳がより関与したのかはよくわからない。
      LLM はこうした逐次的思考では確実に私たちを上回るだろうし、そうなれば人間は残された right-brainness の側にさらに踏み込むべきなのか、それとも AI がそこにまでより早く到達するのかが気になる。
    • ある分野の手法を別の分野に適用する代表例を見たければ、Langlands project を調べるとよい。
  • AI は私のお気に入りの変わった共同作業相手だ。

  • ある種の Erdős 問題は、後になって開発された 洗練された手法 を使うと、実質ほとんど自明になってしまうこともある。
    私の教授の一人は Erdős と共著したことがある人物だったが、しばらく未解決だった Erdős 問題を学部生向けクイズの問題に出せたと、とても自慢していた。

    • その点でひとつ付け加えると、そうした問題はすでにほぼ一通り LLM にかけてある。
      だから今回の事例は、モデルが実際により強くなった証拠に見える。
      以前の世代の LLM はこの問題を解けなかったからだ。
    • Tao によれば、この問題に対する 既存の定石アプローチ は行き止まりに見える一方で、あまりに当然なので誰もが最初に試す第一歩でもあったという。
      だから今回の結果はなおさら希望が持てる。
      類似の問題にも評価してみる価値のある新しいアプローチの筋が生まれたからだ。
  • このあたりまで来ると、GitHub repo をひとつ作って、未解決の dry lab 問題を大量に入れておき、新しいモデルが出るたびに全部回す harness を作るとよさそうだ。

    • 実際に Terence Tao と他の数学者たちがそうしたリポジトリを運営していて、LLM で解法を見つけるために actively 使っている。
      [1] https://github.com/teorth/erdosproblems
    • それが文字通り Erdős problems そのものだ。
      この記事も、そのうちのひとつが解けたという話だ。
  • ChatGPT の証明原文は実際かなりひどく、専門家がふるいにかけて何を言おうとしているのか理解しなければならなかった という一節を見て、数学論文を読むときにいつも抱く感情とまったく同じだと思った。

  • この問題が 60年来の問題 だというなら、実際にはすでに間接的に解かれていて、モデルが複数の情報を突き合わせて見つけ出した可能性もあるのではないかと思った。
    サイトを見ると、人間が以前に議論した痕跡はほとんどなく、最近のコメントも GPT が見つけたという話ばかりなので、なおさらそう感じた。
    60年来の問題ならもっと古い議論があるはずだと思ったが、自分が何か見落としているのか気になる。
    それでも見事な発見であり、同じように GPT で再確認してみる価値のある問題は他にもありそうだ。

  • 人間も、そして人間が作った機械も、たいていは 累積的なやり方 で問題を解く。
    既存の土台の上に積み上げ続けるため、車輪の再発明を避けたがる性向のせいで、考え方に閉じ込められやすい。
    だから無垢な LLM が専門家たちの試さなかったアプローチを出したとしても、それほど驚くことではない。
    LLM はこうした限られたケースでは 別のアプローチ を投げ込む役割としてかなり有用で、必ずしも正解である必要すらなく、代案を示して場を揺さぶれればよい。
    ただ、この Erdős 問題に実用上どんな価値があるのかはよくわからない。
    LLM が無用の長物ではない証拠かと問われれば、それは1928年に数論へ何百万ドルも投資すべきかと尋ねるのに近く聞こえる。
    当時なら答えは いいえ、それから私のオフィスから出ていってくれ だっただろう。