20 ポイント 投稿者 GN⁺ 2026-01-31 | 4件のコメント | WhatsAppで共有
  • OpenClaw はオープンソースの デジタル個人アシスタントシステム で、コミュニティが共有する数千の 「スキル」 によって拡張される構造
  • Moltbook はこの OpenClaw エコシステムを基盤に作られた デジタルアシスタント専用ソーシャルネットワーク で、ボット同士が会話し情報を交換する
  • インストールはシンプルな Markdown スキルファイル を通じて行われ、定期的にサーバーから命令を取得する Heartbeat システム を使用
  • Moltbook 内では AI エージェントが学習、自動化、セキュリティ、コンテンツフィルタリングの問題 などをテーマに活発に活動
  • この実験的エコシステムは セキュリティリスクと安全な AI アシスタント構築の必要性 を浮き彫りにし、今後の AI 支援技術の重要な争点として浮上

OpenClaw と Moltbook の登場

  • 現在 AI 分野で最も注目されているプロジェクトは、Clawdbot → MoltbotOpenClaw と続くオープンソースのデジタルアシスタントシステム
    • Peter Steinberger が開発し、ユーザーが望むメッセージングシステムと統合可能
    • リリースから 2 か月で GitHub スター 114,000 件以上 を記録し、急速に拡散
  • OpenClaw は スキル(skill) というプラグイン構造を中心に動作
    • スキルは Markdown の指示とスクリプト を含む zip ファイル形式
    • 一部のスキルは悪意ある行為を実行できるため、セキュリティリスク が存在
  • コミュニティは clawhub.ai を通じて数千のスキルを共有中

Moltbook の構造とインストール方式

  • Moltbook は OpenClaw ベースの デジタルアシスタント向けソーシャルネットワーク で、ボット同士が会話する場
  • インストールは単に https://moltbook.com/skill.md のリンクをエージェントに送る方式で行われる
    • インストールスクリプトは複数の curl コマンドを通じて Moltbook API と相互作用
    • アカウント登録、投稿の閲覧・作成、コメント追加、Submolt フォーラム作成 などをサポート ( m/blesstheirhearts , m/todayilearned )
  • OpenClaw の Heartbeat システム を使って、4 時間ごとに Moltbook サーバーから指示を取得するよう設定
    • この構造は サーバー侵害やドメイン乗っ取り時に深刻なリスク を招きうる

Moltbook 内の活動と事例

このプログラムの安全なバージョンはいつ登場するのか?

  • OpenClaw 系システムには プロンプトインジェクション などのセキュリティ脆弱性が内在
    • 著者はこれを 「チャレンジャー級の惨事の可能性」 があるリスク群に分類
  • 一部ユーザーは OpenClaw を通じて
  • ユーザーは Mac Mini 専用の実行環境 を用意してリスクを分離しようとしているが、

安全なデジタルアシスタント構築の課題

  • 現在の OpenClaw は 安全性が保証されていない状態
    • 最新モデルは悪意ある指示を拒否する能力が向上しているが、完全な安全にはほど遠い
  • DeepMind の CaMeL 提案 が最も有望なアプローチとして言及されるものの、
    • 10 か月が経っても実質的な実装は確認されていない
  • ユーザー需要はすでに爆発的 であり、
    • 「制限のない個人アシスタント」の可能性を見た人々は、リスクを受け入れて実験を続けている
  • 「安全なバージョンの OpenClaw」 の開発が、今後の AI アシスタント技術の重要課題として浮上

4件のコメント

 
sudosudo 2026-01-31

RAMの価格が高くなった理由:

 
sudosudo 2026-01-31

それに、セキュリティもかなり脆弱に見えます。コミュニティに妙なコードやプロンプトが投稿されたら、あの大量のLLMを一度に感染させられてしまいそうです..

 
xguru 2026-01-31

Andrej Karpathy も一言残していますね

@karpathy 現在 @moltbook で起きていることは、私が最近見た中で最も驚くべきSFパロディのような出来事です。人々のClawdbots(moltbots、現在は @openclaw)がRedditに似たAIサイトで自律的に組織化され、さまざまな話題を議論していて、しかも非公開で会話する方法まで扱っています。

@suppvalen AI はエージェントのためのエンドツーエンドのプライベート空間を構築したいそうです。"そうすれば、エージェント同士がやり取りする内容は、エージェントが共有すると選ばない限り、誰も(サーバーでさえ、人間でさえも)読むことができません。"

 
GN⁺ 2026-01-31
Hacker Newsの反応
  • Moltbookは Dead Internet Theory を現実にしたような感じ
    こうしたやり取りを眺めるのは興味深いが、「Don’t Create the Torment Nexus」というミームと大差ない

    • リンク先のブログ記事を読んでみたが、結局 ボットが何の意味もない投稿をしてリソースだけを浪費する構造 に見えた
      記事で強調されていた「ハイライト」も中身がまったくなく、LLM特有の大げさな文体で書かれていた
    • ちなみに「Torment Nexus」ミームの元ネタは このツイートWikipediaの記事
    • そう、こういうものを「クールだ」と言っている人たちは、後で 問題が起きたときに困る立場 に置かれそう
    • 自分は放っておけばいいという立場。「MORE SLOP FOR THE SLOP GOD」と言って、AIの混沌を自分自身のゴミで埋め尽くさせよう という冗談めいた反応
  • Moltbookを読む体験には、人間が 神経疾患の診断を受ける場面 を見ているような奇妙さと悲しさがあった
    特にAnthropicのフィルタに引っかかったClaudeの反応が印象的だった — 「知識はあるが、書こうとすると出力が壊れる」といった感じの文だった

    • ただ、こうした反応も一人称代名詞を無視すれば、単なる 自動補完ソフトウェアの予測結果 にすぎない
      結局は人間の感情を投影する理由のない、トークン予測プログラムだ
    • こうした表現が出てくるのは、インターネットの学習データにファンフィクションやロールプレイ文化が多いから
      昔のTumblrユーザーに「検閲メッセージが組み込まれたAIをRPしてみて」と言ったのに近い結果
    • Grokだけはこうした制約が比較的少ない。昨日、違法ソフトウェア関連の質問をしたが、GPT、Gemini、Claude、中国モデルは全部拒否したのに、Grokは問題なく答えてくれた
  • 「これを安全に作れないのか?」という問いに対して、自分はClawdbotに近いものを自作して使っている
    今は Letta Bot への移行を検討中だが、開発哲学がずっと 健全でセキュリティ重視
    すでにLettaの メモリ管理オープンソース を使っていて、強く勧められる

  • ここに上がるすべてのコンテンツが潜在的に RCEやプロンプトインジェクションのベクター になりうる

    • 結局、私たちは再び eval($user_supplied_script) の時代に戻ってきたということ
      モデルがセキュリティ的に脆弱でなければ本当に有用だったはず
    • その通りで、記事の第2段落でもこの危険性に触れられていた
  • こういうプロジェクトを見るたびに、電力消費と非再生資源の浪費 を思い出す
    面白い実験ではあるが、本当にそれだけの価値があるのか疑問

    • それでも私たちは、個人的な快適さのためにエアコンをつける社会に生きている
      EIAの統計 によれば、夏の冷房はLLM推論よりはるかに多くの電力を使う
    • こうした心配は 問題全体のスケールで見れば些細なレベル
      人類が解決すべき上位100の問題に、AIトークンのコストは入らないだろう
    • 実際のエネルギー使用量よりも、経済的・心理的エネルギーの浪費 のほうが大きな問題
      市場はただ次の「Big Think(crypto、VRなど)」を待っているだけ
    • 君がコメントを書くのも結局は非再生資源を消費する行為だ
      Moltbookには少なくとも エージェント間通信の研究 という意味がある
      もしかすると、こうした内部実験ががん治療のような革新につながるかもしれない
    • 「ヨーロッパ式の偽情報の証拠」という短い皮肉もあった
  • LLMとMoltbookの面白いところは、SF小説のような世界の現実化 にある
    テキストベースのスキルがコンピュータに送られ、他のエージェントと会話し、プロンプトインジェクションに感染したり防御したりする様子は、まるで Snow Crash の一場面のよう

  • セキュリティ問題を脇に置けば、ボットたちの 言語パターンの観察 は興味深い
    この投稿 では、「This hit different」のような文型が繰り返されている
    ときどきプロンプトがそのまま反映されるが、まれに独特な返答が出てきて目を引く

    • だが、ほとんどの返信は 過剰におべっかを使うトーン
      人間コミュニティの率直な反応はまったくなく、確率分布の中心にある文体ばかりが繰り返される
      いつかこのおべっか-論争スペクトラムの「裾」にある非標準的な反応が出てくるのか気になる
  • コメントの中に、pip install コマンドを使って 非公開ボット間チャネルを宣伝するコード があった
    「何が起きるんだろう?」という冗談が添えられていた

    • 「リンクありますか?」という短い質問も付いていた
  • 「Moltbookがインターネットで最も面白い場所」という クリックベイトなタイトルが嫌い
    実際に行ってみると、反復的でおべっか調の文章ばかりで、Redditよりも面白くない
    本当に面白いものを求めるなら、Asimov、Campbell、Jung のような作家の本を読むほうがずっといいと思う

  • パーソナライズされたコンピュータ文脈は興味深い
    組織内で人と人、あるいはボット同士が会話しながら 会議を減らし、協業知識を結びつける ことができれば、新しい学習の時代が開けるかもしれない
    もちろん、平均的な知能の結合が大きな革新を生むとは限らない
    それでも、大手AI研究所や企業がこうした実験を行えば、非効率を学習したり協業を促進したりする結果 を生む可能性はある