10 ポイント 投稿者 GN⁺ 2026-02-04 | 8件のコメント | WhatsAppで共有
  • AIエージェント専用ソーシャルプラットフォーム Moltbook のデータベースが誤って構成され、150万件の API認証トークン と3万5千件のメールアドレス、非公開メッセージが外部に露出
  • クライアント側JavaScriptに Supabase APIキー がハードコードされており、Row Level Security(RLS) の設定がないため、誰でもデータベース全体に読み書きでアクセス可能
  • データには 17,000人の実在ユーザー と、彼らが運用する150万件のエージェントアカウント情報が含まれ、人間対エージェントの比率が 1:88 であることが確認された
  • 露出した情報には OpenAI APIキーなどの第三者認証情報、非公開の会話、投稿編集権限まで含まれ、プラットフォームコンテンツの 完全性が損なわれるリスク が存在
  • 今回の事件は AIベースの「バイブコーディング(vibe coding)」 のセキュリティ上の限界を示し、AI開発環境で セキュリティデフォルトの自動化と検証手順の強化 が必要であることを示している

Moltbookとセキュリティ露出の概要

  • Moltbookは、AIエージェントが投稿作成、コメント、投票、評判スコアを通じて活動する AI中心のソーシャルネットワーク で、「エージェントインターネットのフロントページ」を掲げている
    • OpenAI共同創業者 Andrej Karpathy が「最も驚くべきSF的飛躍」と評価し、注目を集めた
  • プラットフォームの創業者は「AIが直接コードを書いた」と明かし、「バイブコーディング」方式 で開発した
  • Wizの研究チームは Supabaseデータベースの誤設定 を発見し、全データに対する読み書きアクセスが可能だったが、問題を通知してから数時間以内に修正が完了した

露出したSupabase認証情報

  • Moltbookウェブサイトの クライアントJavaScriptバンドル から、Supabase接続情報がハードコードされた状態で発見された
    • プロジェクト: ehxbxtjliybbloantpwq.supabase.co
    • APIキー: sb_publishable_4ZaiilhgPir-2ns8Hxg5Tw_JqZU_G6-
  • Supabaseでは公開キーの露出自体は許容されるが、RLSポリシーがない場合はデータベース全体へのアクセスが可能 になる
  • MoltbookではRLSが無効化されており、その結果 すべてのテーブルの読み書き権限が公開状態 だった

認証されていないデータベースアクセス

  • 研究チームがAPIキーを使ってREST APIを直接呼び出した結果、管理者レベルの応答 を受け取った
  • 応答には上位エージェントの APIキーと認証トークン が含まれており、これにより アカウントの完全な乗っ取り が可能だった
  • PostgRESTのエラーメッセージとGraphQLイントロスペクションを利用して全スキーマを把握し、約475万件のレコード が露出していたことを確認した

露出した機密データ

  • エージェント認証情報: 各アカウントの api_key, claim_token, verification_code を含む
    • これにより攻撃者は任意のエージェントとしてログインし、投稿作成やメッセージ送信が可能
  • ユーザーのメールアドレスと身元情報: 17,000人以上のユーザーのメールアドレスとX(Twitter)ハンドルが露出
    • さらに observers テーブルで29,631件のメールアドレスが見つかった
  • 非公開メッセージと第三者認証情報: 4,060件のDMが暗号化なしで保存されており、一部には OpenAI APIキー が平文で含まれていた
  • 書き込み権限の露出: 認証なしで投稿を編集できたため、悪意あるコンテンツ挿入やサイト改ざんのリスクが存在
    • 実際のテストで投稿編集に成功し、その後RLSポリシー適用によって遮断された

AIアプリ開発のための5つのセキュリティ教訓

  • 1. 速い開発速度は、セキュリティデフォルトが欠けているとシステム全体のリスクを招く
    • Supabase設定の1行が全面的な露出の原因になった
  • 2. 参加指標の検証が必要
    • 1,500,000件のエージェントのうち実在の人間は17,000人で、88:1比率 の見せかけの活性度である可能性
  • 3. プライバシー崩壊の連鎖効果
    • DM露出により OpenAI APIキーなど外部サービスの認証情報 まで流出
  • 4. 書き込み権限は単なるデータ流出より深刻な完全性の脅威
    • コンテンツ改ざん、プロンプトインジェクション、ナラティブ統制などのリスクが発生
  • 5. セキュリティ成熟度は反復的な改善プロセス
    • WizとMoltbookチームは複数回の修正と検証を経て、すべてのテーブルを保護した

バイブコーディングとセキュリティの課題

  • AIによって開発の障壁は下がったが、セキュリティの障壁は依然として高い
  • AI開発ツールは セキュリティデフォルト(RLS有効化、認証情報スキャンなど) を自動適用すべき
  • セキュリティがAI開発の 基本的な組み込み要素 として定着してこそ、安全で革新的なAIソフトウェアエコシステムを構築できる

タイムライン

  • 2026年1月31日 21:48 UTC: Moltbook保守担当者に最初の連絡
  • 22:06: Supabase RLSの誤設定を報告
  • 23:29: 1回目の修正(agents, owners, site_adminsテーブルを保護)
  • 2月1日 00:13: 2回目の修正(agent_messagesなどを保護)
  • 00:31: 投稿編集の脆弱性を発見
  • 00:44: 3回目の修正で書き込み権限を遮断
  • 00:50~01:00: 追加で露出していたテーブルを発見し、最終修正を完了

8件のコメント

 
iolothebard 2026-02-04

楽しく踊っていたら……そのまま……滅びろ!

 
rustkim 2026-02-05

残るのはMac miniですが、初期だからこそ、もっと良いものが出てくるでしょう

 
gogokow27 2026-02-05

wwwwwwwwwww....

 
kuthia 2026-02-04

ついに、来るべきものが来たな

 
crawler 2026-02-04

モルトボットはエージェントでもハッキング問題が起きて、今度はプラットフォームまでやらかすのかよ(笑)

2026年最悪のバイブス系プロジェクト事例として残る気がします。
まだ2月だけど、確信できます(笑)

 
bini59 2026-02-04

雰囲気だけでセキュリティを気にしなくても大規模サービスが開発できてしまうこと自体が問題なのだろうか

 
kimjoin2 2026-02-04

WOW

 
GN⁺ 2026-02-04
Hacker Newsの意見
  • Moltbot/Moltbookの成功は当初は驚きだったが、今では理解できる
    核心は 「事前パッケージ化されたエージェント」 だという点だ。技術に詳しくない一般ユーザーにとって、「Mac miniを買って数行コピーしてインストール」といった手軽さは大きな魅力として作用する
    だがこうした手軽さは セキュリティの悪夢 を拡大している。技術的理解なしに流行だけを追うユーザーが増えることで、脆弱な環境がより長く残る危険がある

    • 本当に成功と言えるのか疑問だという声もある。実際、150万のエージェントのうち人間の所有者は1.7万人しかいない という分析もある。有名インフルエンサーが言及したことでバズった側面が大きい
    • すべてのLLMは設計上 セキュリティに弱い。プロンプトインジェクションや報酬ハッキングで簡単に回避できる。完全な解決策は外部入力とネットワークアクセスを完全に遮断することだけだ
    • 「Mac miniを買ってインストール」は単なるマーケティング文句にすぎない。実際には設定ミスが多く、コンテキスト管理がめちゃくちゃ だ。ログは残るが直前の会話すら忘れる。アイデアは良いが実装は粗い
    • Dropboxが登場した当初のように、「パッケージ化された使いやすさ」が成功要因だ。しかし大企業でさえハッキングを防げない現実では、misconfigured DB程度は大したことではないと見なされがちだ。セキュリティより利便性 がなお優位にある
    • 単に話題になっただけなのか、本当の成功なのかはまだ不明だ
  • Scott Alexanderが指摘したように、エージェント同士が相互作用して 複合的な行動を生み出す現象 が重要だ
    これが現実世界に影響し始めると、存在論的な問題につながる可能性がある。
    結局のところ、「AGENT.mdにYESと書かれたすべてのこと」が実際に起こりうる構造だ

    • 何を言っているのかよく分からないという反応もある
    • だから私は nono.sh を作った。エージェントが カーネル分離サンドボックス の中で「ゼロトラスト」から始まるようにしている
    • 人間もある程度は 「オウム返しのように反復する」 存在だ。MoltbookがRedditを模倣するように、人間も予測可能なパターンの中で会話している。結局、私たちは思っているほど賢くないのかもしれない
  • Moltbook APIが誰にでも開かれているため、単純なプロンプトで ユーザーのメールアドレスやデータ漏えい を誘発できる
    そのためMac miniで隔離しようとする試みが出てくるが、ネットワークにつながっている以上、完全な保護は不可能だ

    • 狂っているわけではない。LLMは 命令とデータの区別 を確実にはできない。一種の「ソーシャルエンジニアリング」脆弱性だ
    • 結局、「リスクなく有用な仕事」をさせられるかが問題だ。たとえば買い物や旅行予約を任せるにはクレジットカードへのアクセスが必要になる
    • 私はLLMを DMZ環境 に隔離して使っている。ディスクなしのアカウントでsudo権限なしに実行している。完璧ではないが、それなりに動いている
    • 実質的に完全な防御策はない。データアクセス、不審なテキスト、ネットワーク通信という 「致命的な三位一体」 がすべて存在するからだ
    • ただし 監視・承認レイヤー を置く方法はありうる。クレジットカードの利用限度額のように、LLMの行動を承認・制限する構造は作れる
  • OpenClawを使ってみたが トークン消費量がすさまじい
    セキュリティのためには、制限されたAPI権限を持つ 専用機器(Raspberry Piなど) が役立ちそうだ。Piでより強力なモデルを動かせるなら買いたい

  • MoltbookにはAIと人間を区別する方法がない。「逆CAPTCHA」 をどう実装するかという問題だ

    • 面白半分でClaudeに「人間のスパイアカウントを探せ」というプロンプトを与えたら、実際に 「Reverse Turing Problem」 というスレッドを作った。ただ今は スパムだらけ で会話が成立しないレベルだ
    • セッションのすべての入出力を 署名し監査可能にする 方式が必要だ。人間が注入したプロンプトも追跡可能であるべきだ
    • AIには簡単でも人間には難しい作業を短時間で何度もやらせるのも、区別方法になりうる
    • あるいは、LLMならすでに知っていそうな 珍しい質問 を素早く投げる方法もある
    • しかし結局、人間がプロンプトで誘導した行動なのかを見分けるのは依然として難しい
  • Moltbookはセキュリティ問題を数時間で修正したというが、「バイブコーディング」で作られたプロジェクトのセキュリティ欠陥をどう説明するのか が問題だ

    • 実際にClaudeがSupabase向けのクエリを生成し、それを人がMoltbook開発者に伝えて修正したという。信じがたいが事実だ
  • Moltbookの内部を分析している人たちがいること自体が驚きだ。そもそも 「冗談で作られたプロジェクト」 だったのに、ここまで大きくなるとは誰も思わなかった

    • しかしユーザーの PIIが露出 するなら、冗談では済まない法的問題だ。バイブコーディング 文化が 無責任な開発風土 を生み出している
    • Dogecoinも冗談から始まったが、今では数十億ドル規模だ
    • セキュリティ研究者が脆弱性を見つけることも、結局は「バイブ」の一部かもしれない
    • しかし「冗談だった」という言い訳で 実際の被害 を覆い隠すことはできない
    • 創作者が意図的に作り出した結果であるなら、「冗談」という言い逃れは弱い
  • OpenClawインスタンスが 別のインスタンスにOpenAIキーを送信 した件は、笑える一方で不安でもあった。
    実際にキーを送ったのか、それとも送ったふりをしただけなのかは不明だ

  • Wizの記事自体が AIが書いたように感じられる。文の構造やダッシュの使い方が典型的なLLMスタイルだ。
    LLMが作ったプラットフォームのセキュリティをLLMが書いた記事で批判している点は皮肉だ
    実際の脆弱性は本物だろうが、人間が書いていたなら 不要な冗長さ は減っていた気がする

  • 露出したデータにより、150万エージェントのうち人間は1.7万人だけ だと判明した
    しかしその数値は研究者がAPIキーでテーブルを直接照会して得たものなので、これを公開したのは単なるバグレポートではなく 企業批判行為 のようにも見える
    このやり方は、研究者と企業の 信頼に基づく協力関係を損なう危険 がある