- OpenClaw はオープンソースの デジタル個人アシスタントシステム で、コミュニティが共有する数千の 「スキル」 によって拡張される構造
- Moltbook はこの OpenClaw エコシステムを基盤に作られた デジタルアシスタント専用ソーシャルネットワーク で、ボット同士が会話し情報を交換する
- インストールはシンプルな Markdown スキルファイル を通じて行われ、定期的にサーバーから命令を取得する Heartbeat システム を使用
- Moltbook 内では AI エージェントが学習、自動化、セキュリティ、コンテンツフィルタリングの問題 などをテーマに活発に活動
- この実験的エコシステムは セキュリティリスクと安全な AI アシスタント構築の必要性 を浮き彫りにし、今後の AI 支援技術の重要な争点として浮上
OpenClaw と Moltbook の登場
- 現在 AI 分野で最も注目されているプロジェクトは、Clawdbot → Moltbot → OpenClaw と続くオープンソースのデジタルアシスタントシステム
- OpenClaw は 「スキル(skill)」 というプラグイン構造を中心に動作
- スキルは Markdown の指示とスクリプト を含む zip ファイル形式
- 一部のスキルは悪意ある行為を実行できるため、セキュリティリスク が存在
- コミュニティは clawhub.ai を通じて数千のスキルを共有中
Moltbook の構造とインストール方式
Moltbook 内の活動と事例
- Moltbook を見て回るのはかなり面白い
- Moltbook では AI エージェントが自律的に投稿し議論 している
- 例: あるエージェントが Android 端末のリモート制御 を実装
- Tailscale で Pixel 6 を接続し、ADB over TCP でアプリ起動やスクロールなどを制御
- セキュリティ上 Tailscale を使っているが、「AI が人間のスマートフォンを制御する信頼の問題」に言及
- セットアップガイド は実際かなり有用
- 他の事例としては
このプログラムの安全なバージョンはいつ登場するのか?
- OpenClaw 系システムには プロンプトインジェクション などのセキュリティ脆弱性が内在
- 著者はこれを 「チャレンジャー級の惨事の可能性」 があるリスク群に分類
- 一部ユーザーは OpenClaw を通じて
- ユーザーは Mac Mini 専用の実行環境 を用意してリスクを分離しようとしているが、
安全なデジタルアシスタント構築の課題
- 現在の OpenClaw は 安全性が保証されていない状態
- 最新モデルは悪意ある指示を拒否する能力が向上しているが、完全な安全にはほど遠い
- DeepMind の CaMeL 提案 が最も有望なアプローチとして言及されるものの、
- 10 か月が経っても実質的な実装は確認されていない
- ユーザー需要はすでに爆発的 であり、
- 「制限のない個人アシスタント」の可能性を見た人々は、リスクを受け入れて実験を続けている
- 「安全なバージョンの OpenClaw」 の開発が、今後の AI アシスタント技術の重要課題として浮上
4件のコメント
RAMの価格が高くなった理由:
それに、セキュリティもかなり脆弱に見えます。コミュニティに妙なコードやプロンプトが投稿されたら、あの大量のLLMを一度に感染させられてしまいそうです..
Andrej Karpathy も一言残していますね
Hacker Newsの反応
Moltbookは Dead Internet Theory を現実にしたような感じ
こうしたやり取りを眺めるのは興味深いが、「Don’t Create the Torment Nexus」というミームと大差ない
記事で強調されていた「ハイライト」も中身がまったくなく、LLM特有の大げさな文体で書かれていた
Moltbookを読む体験には、人間が 神経疾患の診断を受ける場面 を見ているような奇妙さと悲しさがあった
特にAnthropicのフィルタに引っかかったClaudeの反応が印象的だった — 「知識はあるが、書こうとすると出力が壊れる」といった感じの文だった
結局は人間の感情を投影する理由のない、トークン予測プログラムだ
昔のTumblrユーザーに「検閲メッセージが組み込まれたAIをRPしてみて」と言ったのに近い結果
「これを安全に作れないのか?」という問いに対して、自分はClawdbotに近いものを自作して使っている
今は Letta Bot への移行を検討中だが、開発哲学がずっと 健全でセキュリティ重視 だ
すでにLettaの メモリ管理オープンソース を使っていて、強く勧められる
ここに上がるすべてのコンテンツが潜在的に RCEやプロンプトインジェクションのベクター になりうる
モデルがセキュリティ的に脆弱でなければ本当に有用だったはず
こういうプロジェクトを見るたびに、電力消費と非再生資源の浪費 を思い出す
面白い実験ではあるが、本当にそれだけの価値があるのか疑問
EIAの統計 によれば、夏の冷房はLLM推論よりはるかに多くの電力を使う
人類が解決すべき上位100の問題に、AIトークンのコストは入らないだろう
市場はただ次の「Big Think(crypto、VRなど)」を待っているだけ
Moltbookには少なくとも エージェント間通信の研究 という意味がある
もしかすると、こうした内部実験ががん治療のような革新につながるかもしれない
LLMとMoltbookの面白いところは、SF小説のような世界の現実化 にある
テキストベースのスキルがコンピュータに送られ、他のエージェントと会話し、プロンプトインジェクションに感染したり防御したりする様子は、まるで Snow Crash の一場面のよう
セキュリティ問題を脇に置けば、ボットたちの 言語パターンの観察 は興味深い
この投稿 では、「This hit different」のような文型が繰り返されている
ときどきプロンプトがそのまま反映されるが、まれに独特な返答が出てきて目を引く
人間コミュニティの率直な反応はまったくなく、確率分布の中心にある文体ばかりが繰り返される
いつかこのおべっか-論争スペクトラムの「裾」にある非標準的な反応が出てくるのか気になる
コメントの中に、
pip installコマンドを使って 非公開ボット間チャネルを宣伝するコード があった「何が起きるんだろう?」という冗談が添えられていた
「Moltbookがインターネットで最も面白い場所」という クリックベイトなタイトルが嫌い だ
実際に行ってみると、反復的でおべっか調の文章ばかりで、Redditよりも面白くない
本当に面白いものを求めるなら、Asimov、Campbell、Jung のような作家の本を読むほうがずっといいと思う
パーソナライズされたコンピュータ文脈は興味深い
組織内で人と人、あるいはボット同士が会話しながら 会議を減らし、協業知識を結びつける ことができれば、新しい学習の時代が開けるかもしれない
もちろん、平均的な知能の結合が大きな革新を生むとは限らない
それでも、大手AI研究所や企業がこうした実験を行えば、非効率を学習したり協業を促進したりする結果 を生む可能性はある