- AIの進歩を測る5つの実際の指標を分析し、シンギュラリティ到達時点をミリ秒単位まで計算した結果、2034年7月18日火曜日という日付が出た
- MMLUスコア、1ドル当たりのトークン数、フロンティアモデルのリリース間隔、arXivの"emergent"論文数、Copilotのコード占有率など5つの指標を独立にフィッティングした結果、実際に双曲線的な曲率を示した指標はarXivの"emergent"論文数のただ1つだけだった
- 機械の能力指標はいずれも線形トレンドに従っており、シンギュラリティのシグナルはなく、唯一加速しているのはAIの創発現象に対する人間の関心と興奮/不安だった
- すでに2026年現在、大規模解雇、制度的遅延、資本集中、信頼低下、政治再編など、社会的シンギュラリティが技術的シンギュラリティに先行している
- シンギュラリティの本質は、機械が超知能に到達する時点ではなく、人間が機械に対して一貫した集団的意思決定能力を失う時点にある
データ: 5つのAI進歩指標
- ギリシャ語の意味での**「人間的重要性(anthropic significance)」**を基準に選ばれた5つの指標を使用(Anthropic社を意味するものではない)
- MMLUスコア: 言語モデルにとってのSATに相当するベンチマークで、GPT-3(2020年6月、43.9%)からClaude Opus 4.5(2025年11月、90.8%)までのデータを含む
- 1ドル当たりの出力トークン数: 知能のコスト崩壊を測る指標で、対数変換を適用。GPT-3 davinci(16,667トークン/$)からGemini 2.0 Flash(2,500,000トークン/$)まで、5桁の範囲にわたる
- フロンティアモデルのリリース間隔: 「衝撃的」な瞬間の間隔が縮まる様子を表し、GPT-3→ChatGPT(902日)からGemini 2.5 Pro→GPT-4.1(20日)まで急激に減少
- arXivの"emergent"論文数: 直近12か月基準で、ミーム的に測定した学界の興奮度
- Copilotのコード占有率: AIが書くコードの割合
- 各指標は**[0,1]に正規化**され、リリース間隔は逆変換(短いほど高い値)、トークン/$は対数変換後に正規化、各系列は独立したスケールを維持
なぜ双曲線モデルなのか
- AIの外挿に多く使われる指数関数 f(t) = ae^(bt) は、t→∞でしか無限大に到達しないため、有限時間内のシンギュラリティを表現できない
- **多項式成長(t^n)**も同様に、有限時間で無限大に到達することはできない
- 双曲線関数 x(t) = k/(t_s − t) + c は、t→t_sで分母が0となり、有限時点で発散する性質を持つ
- 双曲線的成長は、成長しているものが自分自身の成長を加速するときに発生する: より良いAI → より良いAI研究ツール → より良いAI → 超線形の正のフィードバックループ
フィッティング方法論
- 各指標jについて独立した双曲線 y_i^(j) = k_j/(t_s − t_i) + c_j をフィッティングするが、シンギュラリティ時点 t_s は共有する
- 各系列は固有のスケール k_j とオフセット c_j を持ち、MMLUスコアや1ドル当たりトークン数のようにy軸が異なる指標でも、t_sについては合意できる
- 全体のRSSを最小化すると最適なt_sが常に無限大へ行ってしまう問題がある。遠い双曲線は直線へ退化し、ノイズの多いデータによく合ってしまうため
- 代替として、各系列ごとに独立にR²のピークを探すグリッドサーチを実行
- 有限のt_sでR²がピークを打てば本物の双曲線シグナル
- R²がt_s→∞でも増え続けるなら、実際には線形でありシンギュラリティのシグナルはない
- 結果: arXivの"emergent"だけが明確なR²ピークを持ち、残り4つはすべて線形の方が適していた
導かれた日付
- シンギュラリティ予測時点: 2034年7月18日火曜日 02:52:52.170 UTC
- n = 52(5系列)、95%信頼区間: 2030年1月〜2041年1月(幅132.4か月)
- 系列別R²(共有t_s基準): MMLU 0.747、トークン/$ 0.020、リリース間隔 0.291、arXivの"emergent" 0.926、Copilotコード占有率 1.000
- 95%信頼区間は、t_sに対する**プロファイル尤度(profile likelihood)**から導出し、F閾値を基準にした
感度分析
- Drop-One-Out分析: どの指標を除くとt_sがどれだけ動くかを測定
- MMLU、トークン/$、リリース間隔、Copilotコード占有率をそれぞれ除いても、t_sは変動なし(+0.0か月)
- arXivの"emergent"を除くと、t_sは2036年2月へ18.6か月移動した(探索境界へ押し出された)
- 結論: arXivがすべての仕事をしており、他の系列は共有t_sにおける文脈的な曲線を提供しているだけ
- Copilotはデータ点2つに対してパラメータ2つで自由度0のため、どんな双曲線にも完全にフィットし、t_sには影響しない
t_sが実際に意味するもの
- arXiv論文数が無限大になるというのは、2034年の火曜日に無限本の論文が出版されるという意味ではない
- t_sは、現在の軌道の曲率がこれ以上維持できなくなる地点、すなわち質的に新しいものへ突破するか、飽和して双曲線が誤りだと証明される相転移マーカーである
- 決定的に不都合な事実は、実際に双曲線に従う指標が機械の能力ではなく人間の関心だということ
- MMLU、トークン/$、リリース間隔など、実際の能力・インフラ指標はすべて線形で極点がない
- 有限の日付を指し示す唯一の曲線は、研究者が新しい挙動を発見して命名する頻度、つまり**「ミーム的に測定された学界の興奮度」**である
- データが示す結論: 機械は一定の速度で改善しており、人間はそれに対して加速する速度で加速しながら興奮している
社会的シンギュラリティ: すでに進行中の現象
- t_sがAIの驚きの速度が人間の処理能力を超える時点だとすれば、興味深い問いは機械ではなく人間に何が起こるのかである
- 労働市場の急変: 2025年に110万件の解雇が発表され(1993年以来6回目のこの閾値突破)、55,000件超が明示的にAIを原因として挙げた
- HBRの発見: 企業はAIの成果ではなくAIの潜在力に基づいて人員削減を進めている
- 曲線が極点に達する必要はなく、到達しそうに見えるだけで先制的な構造改革が起こる
- 制度的対応の失敗: EU AI Actの高リスク規則は2027年に延期され、米国は2023年のAI大統領令を2025年1月に廃止した後、12月に州法の先取りを狙う新命令を発令、CaliforniaとColoradoは独自路線を取っている
- 今立案されている法律は2023年の問題を規制しており、法律がGPT-4に追いつく頃にはGPT-7に達している
- 政府の目に見える無能さは信頼を浸食するのではなく崩壊させており、AIに対する世界的信頼度は**56%**まで低下
- ドットコム級の資本集中: S&P 500の上位10銘柄(大半がAI関連)が2025年に指数比重**40.7%**に到達し、ドットコムのピークを超えた
- ChatGPT公開以降、AI関連株がS&P 500リターンの75%、利益成長の80%、設備投資成長の**90%**を占めた
- Shiller CAPEは39.4で、この水準が最後に記録されたのは1999年
- 心理的影響: セラピストは**FOBO(Fear of Becoming Obsolete)**の急増を報告しており、患者は「宇宙が『もう君は必要ない』と言っている」と表現する
- 米国の労働者の**60%**が、AIは創出するより多くの雇用を失わせると予想
- AI利用量は前年比13%増加した一方、AIに対する信頼は18%低下: 使うほど信頼が減る
- 認識論的亀裂: AI研究の3分の1未満しか再現可能でなく、研究者の5%未満しかコードを共有せず、企業研究所の出版も減少している
- フロンティア研究所の知識と大衆の知識の格差が拡大し、政策立案者はすでに時代遅れの情報で動いている
- 議会で証言する専門家たちは互いに矛盾しており、この分野が専門性の形成速度よりも速く動いていることを示している
- 政治的再編: TIMEはポピュリスト的なAI反発を、Foreign Affairsは「怒りの経済がポピュリズムを強化する」と、HuffPostはAIが2026年中間選挙を規定すると報じた
- MAGAはAIが親企業的か反労働的かで分裂し、Sandersはデータセンターのモラトリアムを提案
- 既存の左右軸はこの問いの重さを支えきれず、崩壊しつつある
- これらすべてがt_sの8年前に起きている: 社会的シンギュラリティは技術的シンギュラリティに先行し、制度的・心理的混乱は能力が垂直上昇するのを待たず、その軌道が認識された瞬間に始まる
注意事項(Caveats)
- 日付は単一系列から導出されている: 真の双曲線的曲率を持つのはarXivの"emergent"だけで、残り4つには直線の方が適している
- シンギュラリティ日付の実質的な意味は「AI創発研究が垂直上昇する時点」であり、学界の興奮が先行指標なのか遅行指標なのかが核心的な争点
- モデルは定常性(stationarity)を仮定している: 曲線はいずれロジスティック(誇大宣伝の飽和)か、モデルで表現できない形(真の相転移)へと変曲し、t_sは現在の体制の持続不可能な地点を示すだけで、その後を予測するものではない
- MMLUの天井効果: ベンチマーク飽和による尖度圧縮アーティファクトであり、低いR²はそれを反映している
- トークン/$は対数変換されており非単調: GPT-4は3.5より高価で、Opus 4.5はDeepSeek-R1よりコストが高く、コスト曲線は滑らかではなく、Pareto改善と高コストモデルが混在している
- 5つの指標では十分ではない: SWE-bench、ARC、GPQA、計算資源の購入量、人材給与などを追加すればarXiv依存は減るかもしれない。5つを使った理由は「表に収まったから」
- Copilotはデータ点が2つ: 自由度0でt_sには寄与しない
結論
- 実際のデータと数学的モデルを通じて、1つの明確な特異点時点が導かれた
- この特異点は機械の超知能化ではなく、人間社会の注意力崩壊を意味する
- 数学が見つけたもの: 特定のミリ秒に向けて極点へ曲線を描く指標が1つあり、それは人間が創発的AI挙動を発見する速度である
- 残り4つの指標は線形: 機械は着実に改善しており、加速しているのは人間
- 労働、制度、資本、認識、政治などあらゆる領域で、すでに社会的特異点が進行中である
- 技術的特異点が来る前に、人間がAI変化の速度に耐えられなくなる集団的限界点が先に到来するだろう
- データにおけるシンギュラリティは人間の関心のシンギュラリティであり、すでに接触するあらゆるものに重力を及ぼしている
3件のコメント
面白い点として、OpenAI、Google、Anthropicの新しいモデルのような大きな発表日は、たいてい火曜日と木曜日です。
韓国時間では水曜日と金曜日の午前2〜3時ごろ(カリフォルニア時間では午前10時)に発表されるので、夜更かしして眠れないときはこの時間にニュースをチェックしてみてください
Hacker Newsの反応
この記事は本当に興味深かった。筆者は自分のモデルと方法論を長々と説明した末に核心へ入るが、結局重要なのは特異点が実際に来るかどうかよりも、どれだけ多くの人がそれを信じて行動するかだということだった。
だから私は技術的な論争よりも社会的な議論へと焦点を移した。つまり「社会が生存を賃金労働に依存する構造を変えないまま人間の労働を置き換えようとするのは非常にまずい」という立場のほうが、はるかに共感を得やすい。
単純な形は「すでに勝ったと皆に信じ込ませること」、洗練された形は「皆が、他の人たちもそう信じているのだと信じ込ませること」だ。結局、人々はその信念に合わせて行動するようになる。
LLMは単なる統計的予測エンジンだが、その過程で emergent behavior、つまり知的な振る舞いが現れる可能性はある。まだ確かなことは分からない。
もし特異点が来ないなら人々の信念は非常に重要だが、実際に来るなら信念はほとんど無意味になる。
Frank Herbertの『Dune』の一節を引用し、人間が思考を機械に委ねた結果、別の人間が機械を通じて人間を支配するようになったと述べている。
今や私たちは読まなくなり、書かなくなり、考えなくなるだろうと警告している。LLMがすべてを代行するようになれば人類の終焉が訪れる、と主張している。
そして Poison Fountainプロジェクト に触れ、毎日ウェブクローラーに「毒性データ」を注入する反AI兵器を紹介し、参加を呼びかけている。
R.A. Laffertyの1965年の短編「Slow Tuesday Night」が紹介されている。
超高速社会を描いた2600語のSFで、1日が数分で過ぎ去る世界を描写している。
「機械が超知能になる瞬間ではなく、人間が機械について集団的意思決定を coherent に下せなくなる瞬間こそが特異点だ」という一文が引用され、感嘆している。
記事の内容は興味深かった。2025年には110万人の解雇が発表され、そのうち5万5000人についてはAIが理由として挙げられていた。しかしこれはAIの実際の性能ではなく、『可能性』に基づく解雇だった。
結局のところ、AIは私たちがすでに知っていた事実、すなわち意味のない事務職が多すぎるという現実をあらわにしたにすぎない。
「知能爆発」を単純モデルで表した微分方程式が紹介されている。
dx/dt = x²の解はx = 1/(C - t)で、成長速度が x に比例する指数成長よりもさらに急激だ。だが現実的な制約(電力、資源など)を考えると、最終的にはロジスティック成長に近い形へ収束する。
このすべてがビデオゲームのおかげだという点を思い出させる。GPUハードウェアの進歩がなければLLMも存在しなかったはずだ。
実際、AIは数十年にわたる技術蓄積の結果だ――チップ、インターネット、オープンソース、クラウド、データセンター、数学、物理学まで、すべてが避けがたく特異点へ向かってきた過程だった。
「2034年までは大丈夫らしいので安心した」と冗談めかした安堵を示している。
なぜもはや知識倍増(knowledge doubling) の概念で特異点を語らなくなったのか、という疑問が出ている。
Buckminster Fullerの『Knowledge Doubling Curve』やRay Kurzweilの『Law of Accelerating Returns』に言及し、
昔は人類の知識が100年ごと、のちには25年ごとに倍増していたのだから、今はその速度が無限大へ収束する時点を特異点とみなすべきではないかと述べている。
「2038年Unixタイムスタンプ問題」を経験しなくて済みそうだと安堵している。
楽観的な予測でもあと8年となると、時間はたくさんあって、やることも多いですね。新生児が小学生になるまでの間、何もせずに生きるわけにはいかないので