- OpenAIは2018年の憲章(Charter) で、「他の安全重視プロジェクトがAGIに接近した場合は競争を止めて協力する」という**『自己犠牲条項』**を明記した
- Sam Altmanの発言を整理した表によれば、AGI到達予想時期が2033年から2025年へと急激に短縮され、最近では「すでにAGIを作った」という言及まで現れている
- Arena.aiモデルランキングではAnthropicのClaudeとGoogleのGeminiが上位を占め、OpenAIのGPT-5.4は6位に後退している
- 記事は、こうした状況が憲章で示された「2年以内に成功する可能性が半分以上の競合が現れた場合は協力する」という条件を満たしていると指摘する
- 結果としてOpenAIは憲章に従って競争を中止し協力すべきだが、現実には理想主義と経済的インセンティブの衝突を示す事例として提示されている
OpenAI憲章の自己犠牲条項
- 2018年のOpenAI憲章には、AGI開発競争が安全を損なうおそれがあるという懸念が盛り込まれている
- 「価値整合と安全を重視するプロジェクトがAGIに接近した場合は競争を止めて支援する」という文言を含む
- 「2年以内に成功する可能性が半分以上」であることが典型的な発動条件として示されている
- この条項は現在も公式サイト(openai.com/charter)に掲載されており、今なお会社の公式方針として維持されている
Sam AltmanのAGI予測の変化
- 表によれば、Altmanは2023年から2026年にかけてAGI到達時期を継続的に前倒ししている
- 2023年5月には「10年以内に専門家レベルを超える」と述べたが、
- 2024〜2025年には「2025年にAGI到達」「すでにAGIを作った」といった発言まで続いている
- 2025年以降の予測の中央値は約2年以内であり、憲章の発動条件と一致する
- 一部のインタビューでは、「AGIを超えてASI(超知能)に向かっている」という表現も登場する
Arena.aiモデル順位の比較
- Arena.aiリーダーボード上位10モデルのうち、AnthropicのClaude-opus-4-6が1位、GoogleのGemini 3.1が3位
- OpenAIのGPT-5.4-highは6位で、競合他社モデルより低い評価となっている
- 記事はAnthropicとGoogleのモデルが**『安全重視で価値整合的』だと言及し、GPTと互換性のある代替手段**と見なしている
競争中止条件の充足可否
- AGI開発時期が2年以内に縮まり、競合他社モデルが先行している状況では、憲章の「競争中止と協力」条件が満たされている状態と評価される
- Arena.aiがAGIを測定するのに適切かどうかは議論があるが、**憲章の精神は『軍拡競争の回避』**にある
- したがってOpenAIはAnthropicおよびGoogleと協力すべきだという結論につながる
理想主義と現実の乖離
- 記事は、実際にOpenAIが競争を止める可能性はないと明記している
- この事例は、理想主義的な原則が経済的インセンティブの前で無力化される現実を示している
- また、AGIの定義と目標時期が継続的に変動しており、最近ではASI論に焦点が移った現象も指摘している
1件のコメント
Hacker Newsの意見
このスレッドではみんな定義の争いばかりしている
本当に重要なのは経済的な観点だ — AIが人間の補助を伴う自動化から完全に自律した成果物の生成へと切り替わる瞬間がいつなのか、ということだ
今のAIの本番運用環境を見ると、依然として人間がレビュー・修正・監督を担っている。AIは量を処理し、人間は判断を担う。結局、判断がボトルネックなのだ
労働を代替したのではなく、単に位置を移しただけだ。世界の労働報酬は年間およそ50兆ドル規模で、資本市場はAIがこの一部を実際に吸収できるかどうかに賭けている。AGIという呼び名は重要ではない — 資本が関心を持っているのは定義ではなく、労働と産出が分離するかどうかだ
「AGI」や「ASI」という言葉を見るたびに、私はそれを「誰もきちんと定義できていない何か」に置き換えて考える
つまり、定義が不完全で結論を出せない概念だという意味だ。だから単に「スキップティブープ」みたいな音に置き換えてしまう
AGIを「特定の作業ではない汎用AI」と定義するなら、すでに存在する。
「すべての作業で人間レベルの知能」なら、ある種の人間はAGIではない。
「あらゆることを完璧にこなす魔法のアルゴリズム」なら、それはおそらく存在しない。
AGIという言葉が最初に出てきたころはHAL 9000のようなものを意味していたはずだが、今では目標が動き続けるゲームになってしまっている
技術の商用化に全振りした瞬間から、結果はすでに決まっていた
今のLLMはすでに危険な形で使われており、こうしたニュースが注目され続けるなら、OpenAIはひっそりと憲章をWebサイトから削除するだろう
現在のモデルはAGIとは程遠い
次トークン予測は驚くほど進歩したが、依然として現実世界のモデルや本当の学習能力はない。
人間の監督なしでは限界が明確だ
「素朴な理想主義の無力さ」という言葉があったが、私はそれよりも理想主義の言葉をマーケティング手段として借用したのだと見る
実際には、次第に本性を現していく利益中心の組織だった
AGIは今後30年以内には来ないだろう
研究者たちもそう言っている。
本当のAGIには継続的学習と深い記憶が必要だが、LLMにはそれができない。
今の「メモリ」は単なる検索と要約機能にすぎない — まるで一人が物理の講義を聞いてポストイットに全部書き留め、その後で別の人がそれをざっと見て答えを書くようなものだ
RLと再訓練が必要だが、それは高すぎ、遅すぎ、複雑すぎる。
LLMは見事なコードも書くが、「Xフォルダのファイルは消すな」と言っても結局消してしまう。
攻撃者が文書に埋め込んだ命令にもそのまま従う。
本当の記憶とリアルタイムRLがなければ、こうした問題は解決しない
Daniel Kokotajloのツイート、Karpathyの発言、そしてAI研究者アンケートを見ると、もっと短い予測も多い
会話中は賢いが、セッションが終わるとすべて忘れる。
しかもセッション中でさえ性能が落ちる — 長いコンテキストはむしろ毒になる。
結局、記憶構造の欠如が限界なのだ。人間は長期記憶と睡眠によってこれを解決したが、LLMはそうではない
どれほど賢くても、記憶のない天才は短期的なサヴァンにすぎない
LLMは数千ページを即座に複製し、再構成できる。
すでにテスト時点RLやLoRAベースの継続学習が進行中であり、ある定義ではAGIはすでに達成されたも同然だ。
ただし経済性が低いだけだ。
そしてプログラマーの仕事が消えるというより、むしろ計算論的思考力を持つ人がより必要になるだろう
個人的な経験だが、最近はGPT 5.4がOpus 4.6より良かった
ただ、Chatbot Arenaのランキング表では低く出ていて興味深い
一般ユーザー投票ベースなので専門性の検証が不十分で、大企業が順位を操作することもある
最新モデル同士の比較にはあまり意味がない
同じプロンプトを与えたとき、GPT 5.4は不要なリファクタリングとバグを生み、Opus 4.6はすでに実装済みの機能を認識してテストと文書更新を提案した
Opus 4.6が依然として最高のコーディングエージェントだと思う
「2026年9月には自動化されたAI研究インターン、2028年3月には完全なAI研究者」という予測が興味深い
KarpathyのAutoresearchプロジェクトがHN上位に来た時期とも重なる。
おそらく大規模研究所は、はるかに大きな規模のバージョンをすでに実験しているはずだ
「素朴な理想主義の無力さ」と「AGIの動くゴールポスト」に共感する
最近はAGIの代わりにASIが語られることも多く、すでにAGIを達成したのかもしれないというニュアンスがある
冗談のように聞こえるが、誰も本当のAGIには近づいていない
Altman本人も「AGI達成にはいくつもの中間段階のブレークスルーが必要だ」と認めている
2026年ごろにはAIが既存情報を再構成する段階を超えて、新たな洞察を生成するようになると予測していたが、それがAGIの閾値だと見ている
今のLLMは平均的な人間より平均して有能だと思う