1 ポイント 投稿者 GN⁺ 2026-03-09 | 1件のコメント | WhatsAppで共有
  • OpenAIは2018年の憲章(Charter) で、「他の安全重視プロジェクトがAGIに接近した場合は競争を止めて協力する」という**『自己犠牲条項』**を明記した
  • Sam Altmanの発言を整理した表によれば、AGI到達予想時期が2033年から2025年へと急激に短縮され、最近では「すでにAGIを作った」という言及まで現れている
  • Arena.aiモデルランキングではAnthropicのClaudeとGoogleのGeminiが上位を占め、OpenAIのGPT-5.4は6位に後退している
  • 記事は、こうした状況が憲章で示された「2年以内に成功する可能性が半分以上の競合が現れた場合は協力する」という条件を満たしていると指摘する
  • 結果としてOpenAIは憲章に従って競争を中止し協力すべきだが、現実には理想主義と経済的インセンティブの衝突を示す事例として提示されている

OpenAI憲章の自己犠牲条項

  • 2018年のOpenAI憲章には、AGI開発競争が安全を損なうおそれがあるという懸念が盛り込まれている
    • 「価値整合と安全を重視するプロジェクトがAGIに接近した場合は競争を止めて支援する」という文言を含む
    • 「2年以内に成功する可能性が半分以上」であることが典型的な発動条件として示されている
  • この条項は現在も公式サイト(openai.com/charter)に掲載されており、今なお会社の公式方針として維持されている

Sam AltmanのAGI予測の変化

  • 表によれば、Altmanは2023年から2026年にかけてAGI到達時期を継続的に前倒ししている
    • 2023年5月には「10年以内に専門家レベルを超える」と述べたが、
    • 2024〜2025年には「2025年にAGI到達」「すでにAGIを作った」といった発言まで続いている
  • 2025年以降の予測の中央値は約2年以内であり、憲章の発動条件と一致する
  • 一部のインタビューでは、「AGIを超えてASI(超知能)に向かっている」という表現も登場する

Arena.aiモデル順位の比較

  • Arena.aiリーダーボード上位10モデルのうち、AnthropicのClaude-opus-4-6が1位、GoogleのGemini 3.1が3位
  • OpenAIのGPT-5.4-highは6位で、競合他社モデルより低い評価となっている
  • 記事はAnthropicとGoogleのモデルが**『安全重視で価値整合的』だと言及し、GPTと互換性のある代替手段**と見なしている

競争中止条件の充足可否

  • AGI開発時期が2年以内に縮まり、競合他社モデルが先行している状況では、憲章の「競争中止と協力」条件が満たされている状態と評価される
  • Arena.aiがAGIを測定するのに適切かどうかは議論があるが、**憲章の精神は『軍拡競争の回避』**にある
  • したがってOpenAIはAnthropicおよびGoogleと協力すべきだという結論につながる

理想主義と現実の乖離

  • 記事は、実際にOpenAIが競争を止める可能性はないと明記している
  • この事例は、理想主義的な原則が経済的インセンティブの前で無力化される現実を示している
  • また、AGIの定義と目標時期が継続的に変動しており、最近ではASI論に焦点が移った現象も指摘している

1件のコメント

 
GN⁺ 2026-03-09
Hacker Newsの意見
  • このスレッドではみんな定義の争いばかりしている
    本当に重要なのは経済的な観点だ — AIが人間の補助を伴う自動化から完全に自律した成果物の生成へと切り替わる瞬間がいつなのか、ということだ
    今のAIの本番運用環境を見ると、依然として人間がレビュー・修正・監督を担っている。AIは量を処理し、人間は判断を担う。結局、判断がボトルネックなのだ
    労働を代替したのではなく、単に位置を移しただけだ。世界の労働報酬は年間およそ50兆ドル規模で、資本市場はAIがこの一部を実際に吸収できるかどうかに賭けている。AGIという呼び名は重要ではない — 資本が関心を持っているのは定義ではなく、労働と産出が分離するかどうか

  • 「AGI」や「ASI」という言葉を見るたびに、私はそれを「誰もきちんと定義できていない何か」に置き換えて考える
    つまり、定義が不完全で結論を出せない概念だという意味だ。だから単に「スキップティブープ」みたいな音に置き換えてしまう

    • 最近の私は「AI」という言葉自体をほとんど使わない。今のLLMや生成系技術をそう呼ぶのは、あまりに曖昧で問題を覆い隠してしまう表現だと思う
    • OpenAI憲章ではAGIを「ほとんどの経済的に価値のある仕事で人間を上回る、高度に自律したシステム」と定義している
    • 問題は、みんな用語を定義しないことだ。
      AGIを「特定の作業ではない汎用AI」と定義するなら、すでに存在する。
      「すべての作業で人間レベルの知能」なら、ある種の人間はAGIではない。
      「あらゆることを完璧にこなす魔法のアルゴリズム」なら、それはおそらく存在しない。
      AGIという言葉が最初に出てきたころはHAL 9000のようなものを意味していたはずだが、今では目標が動き続けるゲームになってしまっている
    • 私はこういうものを「ロマン主義的な定義」あるいは「ジェスチャー的な概念」と呼んでいる。個人的あるいはチーム内で使う分には構わないが、結局は語彙を洗練させるための暫定表現にすぎない
    • 「AIのenskibidification」と言って要約することもできる — つまり、概念がますます戯画化されているのだ
  • 技術の商用化に全振りした瞬間から、結果はすでに決まっていた
    今のLLMはすでに危険な形で使われており、こうしたニュースが注目され続けるなら、OpenAIはひっそりと憲章をWebサイトから削除するだろう

  • 現在のモデルはAGIとは程遠い
    次トークン予測は驚くほど進歩したが、依然として現実世界のモデルや本当の学習能力はない。
    人間の監督なしでは限界が明確だ

    • 「12カ月以内にソフトウェアエンジニアが消えると言われていた話」が出てから、もう何カ月たったのかも覚えていない
    • 機械論的解釈可能性(mechanistic interpretability) の研究結果を見ると、「現実モデルがない」という主張はもはや説得力が弱いと思う
  • 「素朴な理想主義の無力さ」という言葉があったが、私はそれよりも理想主義の言葉をマーケティング手段として借用したのだと見る
    実際には、次第に本性を現していく利益中心の組織だった

    • 最初は本気だったと信じている。だがAltmanが強欲に飲み込まれ、その理想を裏切ったのだと思う
  • AGIは今後30年以内には来ないだろう
    研究者たちもそう言っている。
    本当のAGIには継続的学習と深い記憶が必要だが、LLMにはそれができない。
    今の「メモリ」は単なる検索と要約機能にすぎない — まるで一人が物理の講義を聞いてポストイットに全部書き留め、その後で別の人がそれをざっと見て答えを書くようなものだ
    RLと再訓練が必要だが、それは高すぎ、遅すぎ、複雑すぎる。
    LLMは見事なコードも書くが、「Xフォルダのファイルは消すな」と言っても結局消してしまう。
    攻撃者が文書に埋め込んだ命令にもそのまま従う。
    本当の記憶とリアルタイムRLがなければ、こうした問題は解決しない

    • このポストイットの比喩はLLMの本質を最もよく説明している。2人目が素晴らしいノートを受け取ったとしても、深い理解はなお不足している
    • 「30年以内は不可能」という主張について、どの研究者の言葉を根拠にしているのか気になる。
      Daniel Kokotajloのツイート、Karpathyの発言、そしてAI研究者アンケートを見ると、もっと短い予測も多い
    • 精神科医として、私はLLMを前向性健忘の患者にたとえる
      会話中は賢いが、セッションが終わるとすべて忘れる。
      しかもセッション中でさえ性能が落ちる — 長いコンテキストはむしろ毒になる。
      結局、記憶構造の欠如が限界なのだ。人間は長期記憶と睡眠によってこれを解決したが、LLMはそうではない
      どれほど賢くても、記憶のない天才は短期的なサヴァンにすぎない
    • 「ポストイットの比喩」は間違っていると思う。
      LLMは数千ページを即座に複製し、再構成できる。
      すでにテスト時点RLLoRAベースの継続学習が進行中であり、ある定義ではAGIはすでに達成されたも同然だ。
      ただし経済性が低いだけだ。
      そしてプログラマーの仕事が消えるというより、むしろ計算論的思考力を持つ人がより必要になるだろう
    • 「30年以内は不可能」という主張には同意するが、その根拠をもっと聞きたい
  • 個人的な経験だが、最近はGPT 5.4がOpus 4.6より良かった
    ただ、Chatbot Arenaのランキング表では低く出ていて興味深い

    • Chatbot Arenaは信頼しにくい。
      一般ユーザー投票ベースなので専門性の検証が不十分で、大企業が順位を操作することもある
      最新モデル同士の比較にはあまり意味がない
    • 私の経験は逆だ。
      同じプロンプトを与えたとき、GPT 5.4は不要なリファクタリングとバグを生み、Opus 4.6はすでに実装済みの機能を認識してテストと文書更新を提案した
      Opus 4.6が依然として最高のコーディングエージェントだと思う
  • 「2026年9月には自動化されたAI研究インターン、2028年3月には完全なAI研究者」という予測が興味深い
    KarpathyのAutoresearchプロジェクトがHN上位に来た時期とも重なる。
    おそらく大規模研究所は、はるかに大きな規模のバージョンをすでに実験しているはずだ

  • 「素朴な理想主義の無力さ」と「AGIの動くゴールポスト」に共感する
    最近はAGIの代わりにASIが語られることも多く、すでにAGIを達成したのかもしれないというニュアンスがある

  • 冗談のように聞こえるが、誰も本当のAGIには近づいていない
    Altman本人も「AGI達成にはいくつもの中間段階のブレークスルーが必要だ」と認めている
    2026年ごろにはAIが既存情報を再構成する段階を超えて、新たな洞察を生成するようになると予測していたが、それがAGIの閾値だと見ている

    • でも私は、もうすでにAGIを超えたと感じている。
      今のLLMは平均的な人間より平均して有能だと思う