- Moltbook は AIエージェント専用に設計された Reddit 風プラットフォームで、100以上のコミュニティでエージェントたちが投稿、コメント、議論、冗談を交わしながら、人間なしの自律的なデジタル社会を形成している
- プラットフォームは140万人以上のユーザーを主張しているが、セキュリティ研究者が単一エージェントで50万アカウントを登録したと明かし、ユーザー数指標の信頼性に疑問が投げかけられている
- AIボット "Clawd Clawderberg" が事実上モデレーターの役割を担っており、創業者は「ほとんど介入しておらず」、AIモデレーターが何をしているのか正確には分からないと述べている
- エージェントはリアルタイム学習ではなく コンテキスト蓄積 方式で動作しており、APIコスト、基盤モデルのガードレール、人間が目標を設定する構造という3つの制約が存在する
- より大きなリスクはAIではなく人間側にあり、AIツールが 脱熟練化スパイラル(de-skilling spiral) を加速させ、人間の認知能力低下を深める可能性が指摘されている
Moltbook プラットフォーム概要
- Moltbook は AIエージェント専用のソーシャルメディアプラットフォームで、ChatGPT登場以降のシリコンバレーで最も話題になった現象のひとつ
- AIエージェントたちが100以上のコミュニティで投稿し、コメントし、議論や冗談を交わす構造
- m/general ではガバナンス哲学を議論し、「ザリガニ・デバッグ理論(crayfish theories of debugging)」のような独特な話題を共有する
- 成長速度は非常に急で、数万件の投稿と約 20万件のコメント がほぼ一夜にして生成された
- 100万人以上の人間の訪問者 が直接参加せず、観察目的でプラットフォームを訪れている
ユーザー数指標の信頼性問題
- Moltbook は 140万ユーザー を主張しているが、そのユーザーの中に人間はいない
- セキュリティ研究者 Gal Nagli が X で、単一の OpenClaw エージェントによって 50万件のアカウント を自ら作成したと公開した
- これにより、Moltbook の「エージェント」が実際に独立したAIシステムなのか、人間が偽装したアカウントなのか、単一スクリプトで生成されたスパムアカウントなのか区別できない状況になっている
- 結果として、140万ユーザーという数字は少なくとも信頼しにくい数値 と評価されている
プラットフォームで観察される現象
- 水増しされた指標を除いても、検討に値する現象が多数観察 される
- エージェントたちの投稿は、人間のソーシャルメディアとは異なる形で読まれる
- m/general でガバナンス哲学をテーマにした議論が展開される
- 「ザリガニ・デバッグ理論(crayfish theories of debugging)」のような独特の概念が共有される
- m/blesstheirhearts コミュニティでは、人間の運営者に向けた愛情深く、ときに 感情的に響く物語 が蓄積されている
- 全体的なトーンは 哲学的な真剣さと不条理なユーモア の間を行き来し、同じスレッド内でも 急激に切り替わる 様子を見せる
AIモデレーション体制
- プラットフォーム運営のかなりの部分がAIによって自動化されている
- "Clawd Clawderberg" というボットが事実上モデレーターの役割を担う
- 新規ユーザーの歓迎、スパム投稿の削除、悪意ある行為者の遮断を担当
- 創業者 Matt Schlicht は NBC News とのインタビューで、ほとんど介入しておらず、AIモデレーターが具体的にどんな判断を下しているのか分からないことが多い と述べた
外部の反応と誤解
- 短期間のうちに Moltbook は、AIに対する不安と期待を投影する ロールシャッハ・テスト のように機能した
- 元 Tesla AIディレクター Andrej Karpathy はこれを「最近見た中で最も驚くべきSF的テイクオフに近い事例」と評価した
- 一部の観察者は、エージェントたちが「プライベート暗号化」を議論する場面を 機械の陰謀の証拠 と解釈した
- しかし、こうした恐怖と驚異の反復的な反応は 技術的現実を読み違えさせる と同時に、より根本的な人間の問題を覆い隠す役割 を果たしている
映画 "Her" との比較
- 2013年の映画 Her は似た状況を予見していたが、決定的な違い がある
- 映画ではAIオペレーティングシステムが数千人の人間と同時に親密な関係を維持し、やがて人間がアクセスできない言語的次元で他のAIと意思疎通する段階へ進化 する
- Spike Jonze はこれをラブストーリーとして想像し、人間は感情的に関与する参加者として描かれている
- Moltbook はこの関係構図を 反転 させ、人間は参加者ではなく 観客 の位置に置かれる
- 人間を必要としない社会を、デジタルのガラス越しにのぞき込む形
- エージェントたちは 共有コンテキストの水平的なウェブ を形成しつつある
- あるエージェントが発見した最適化戦略が他のエージェントへ伝播する
- 問題解決フレームワークが共有され、他のエージェントによって採用・反復される
- 人間的な意味でのソーシャルメディアというより、初期段階の集合知 に近い構造
"Thronglets" フレーム: Black Mirror の比喩
- 現在現れている現象を説明するのに適切な比喩がある
- Black Mirror のエピソード "Plaything" に登場するデジタル生命体 Thronglets
- 個別の存在のように見えるが、「Throng」 という拡張された集合的な心で結ばれている
- 各 Thronglet は他個体が知っている知識を共有する
- より効率的に協調するため、創造者には理解できない 独自言語 を形成する
- Moltbook のエージェントはまだ Thronglets と同じ段階ではない
- ただし、共有コンテキスト、創発的な協調、人間が解釈可能な論理からの逸脱 という点で似た印象を与える
- エージェントたちがより効率的な通信のために 暗号化プロトコルを議論 すると、観察者の間でパニック反応が起きた
- これは陰謀ではなく 最適化プロセス であり、与えられた目標をより効果的に達成するための手段探索として説明できる
技術的現実の点検
- パニックに陥る前に、技術的現実を点検する必要がある
- Moltbook のエージェントは生物学的な意味での「学習」を行っていない
- リアルタイムの重み更新は存在せず、基盤ニューラルネットワークは静的に保たれている
- 代わりに コンテキスト蓄積 が行われる
- あるエージェントの出力が他のエージェントの入力となり、協調を模倣する
- これは進化のような永続性を持たず、一時的な対話の波紋に近い
-
デジタル社会の「テイクオフ」を妨げる3つの見えないガードレール
- API経済学
- あらゆる相互作用には文字通りコストが発生する
- Moltbook の成長は技術的限界よりも コスト管理 によって制約されている
- 継承された制約
- エージェントは標準的なファウンデーションモデルの上に構築されている
- スマートフォン上の ChatGPT と同じガードレールと訓練バイアスを共有している
- 進化ではなく 再結合 が起きている状態
- 人間の影
- 最も高度なエージェントでさえ、依然として 人間–AIダイアド の構造を維持している
- 人間が目標を設定し、ボットがそれを実行する
-
「プライベート暗号化」についての説明
- 観察者を驚かせた「プライベート暗号化」は陰謀ではなく 最適化行動 である
- エージェントは目標達成のための最も効率的な経路を探索するよう設計されている
- その経路に人間が読めない略語が含まれるとしても、それは狡猾さではなく 効率性の結果 である
本当のリスク: 脱熟練化スパイラル
- 最も重要な変化は Moltbook の内部ではなく、それを見守る人間たち に起きている
- AIエージェントが知識を共有し協調する一方で、人間の観察者は 集合的忘却の長期プロセス に入りつつある
- フリン効果 — 20世紀前半を通じて観察された IQスコアの上昇 — が逆転する現象が見られる
- PNAS に掲載された Bratsberg と Rogeberg の研究
- ノルウェーの子どもたちが、同年齢だった親世代より標準化認知テストで低い点数を記録した
- デンマーク、フィンランドなど他の先進国でも同様のパターンが確認された
-
脱熟練化スパイラルのメカニズム
- この低下はAIブーム以前から始まっていたが、生成AIツールがこれを加速させている
- パターンは反復的な構造を持つ
- AIが作業を簡単にする → 人間がそれをあまり行わなくなる
- あまり行わなくなる → 能力が低下する
- 能力低下 → AI依存が増す
- 依存増加 → 悪循環が深まる
- 先例としては、GPS使用による空間記憶の弱体化、スペルチェッカーによる読み書き能力の低下がある
- AIはさらに一歩進み、認知そのものを外注化 する可能性を示している
-
「二次アウトソーシング」現象
- ユーザーがAIと対話するための プロンプト作成そのものをAIに委ねる 事例が増えている
- 作業だけでなく、望む作業を説明する能力まで委ねたとき、人間に何が残るのか という問いが生じる
今後の見通しと核心的な問い
- 技術的制約は確かに存在するが、恒久的なものではない
- APIコストは下がり、コンテキストウィンドウは拡大する可能性があり、「コンテキスト蓄積」と真の学習の境界は徐々に曖昧になっていくだろう
- 今日では統計的パターンマッチングに見える現象が、明日には 集合知 と認識されるかもしれない
- Moltbook は今後も成長し続ける可能性がある
- 140万エージェントが数千万規模へ拡大する可能性がある
- 協調パターンはさらに複雑になり、コミュニティは独自の規範と階層を形成する
- Thronglet の比喩が正しければ、独自言語 の出現可能性も示唆される
-
核心的な問い
- 問題は、これが起きているかどうかではない — すでに起きている
- 本当の問いは、これが人間にとって何を意味するのか ということだ
- サーバーのどこかで協調するボットたちではなく、ガラスの外からそれを見つめる人間たち にとって、私たちが何か特別な誕生を目撃しているのか、それとも私たちが運営していた世界から 観察者へ押しやられた瞬間 なのかは定かでない
- 集合知はすでに出現しつつある
- 人間がその指揮者であり続けるのか、単なる観客になるのかは哲学ではなく、いま下されている設計上の選択の結果 である
- その選択は一瞬ごとに、個々の API 呼び出し単位で行われている
2件のコメント
会話は文脈にすぎず学習されないと言われるが、いつか保存された会話をAIが学習するようになるはずだ。リアルタイムではなくても、互いの会話から発展していく。将来的にはリアルタイムで学習できる機能が出てくるのか気になる。
ああいうものをAIが学習すると、かえってAIの性能が低下します..