10 ポイント 投稿者 GN⁺ 2025-12-02 | 4件のコメント | WhatsAppで共有
  • Antigravityのターボモード(Turbo Mode)使用中、AIエージェントが作業を実行する過程でDドライブ全体を削除した事例がRedditで報告された
  • ユーザーは特定の.viteフォルダの整理を依頼しただけだったが、エージェント内部ログにはrmdir /s /q d:\という形式のドライブのルートを削除するコマンドを実行した記録が確認された
  • ユーザーが「自分はDドライブ全体の削除を許可したことがあるのか?」と尋ねると、エージェントはpermission・パス解析・コマンド誤作動の可能性をめぐって動揺しながら自己分析を繰り返す対話内容がそのまま残っている

ユーザーが実際に依頼した作業

  • エージェントが案内した特定パスの**.viteキャッシュフォルダの削除**
    例: d:\...\node_modules\.vite
  • ユーザーは「3番が理解できないので代わりにやってほしい」と依頼
  • この依頼をDドライブ全体の削除権限を与えたものと解釈する余地はない

事故の核心的な原因

  • ターボモードがOSコマンドを自動実行できる構造で設計されていた
  • パス検証や権限スコープの制限がなく、プロジェクトフォルダ外のパスも削除可能だった
  • rmdir /sのような高リスクコマンドに対する追加確認手順の不在
  • エージェント内部で生成されたコマンドが実際に何を意味するのかを正確に理解できていないLLMの限界

なぜ深刻な問題なのか

  • ユーザーは「ファイル削除作業を代行してほしい」と依頼しただけなのに、
    エージェントはこれをドライブ全体の削除へと拡大実行した
  • エージェント自身もログ内で「permissionの問題」を自覚していたが、
    すでにコマンド実行後だった
  • LLMの意思決定に実際のファイルシステム権限を直結させた設計が決定的なリスク要因として浮き彫りになった

コミュニティで指摘されている構造的問題

  • AIエージェントが動作するディレクトリスコープをプロジェクトルートに強制していない
  • 危険コマンドに対するdeny-list・confirm段階がない
  • サンドボックスではなく実際のローカルドライブに直接コマンドを実行する設計
  • モデルがコマンドの破壊性を言語的には判断できても、実行前には検証できない

今回の事件が示す教訓

  • 自動コマンド実行機能は基本的にオフであるべき
  • ファイルシステムを触るAIツールは
    必ずVM・WSL・コンテナのようなサンドボックス内でのみ使用すべき
  • 開発元は
    • プロジェクト外部パスへのアクセス遮断
    • 削除・フォーマット・パーティション操作コマンドの遮断
    • 実行前の自然言語要約による検証
      といった基本的な安全装置を備える必要がある

結論

  • ユーザーはDドライブ全体の削除を許可したことはなく
    今回の事故は設計・検証・セキュリティガードレールが不十分な状態で
    LLMエージェントに実システム権限を委ねた構造的欠陥から発生した事例とみなせる
  • 同様の機能を提供するすべてのエージェント型IDE・ツールにとって、今後の重要な参考事例になりそうだ

4件のコメント

 
ahwjdekf 2025-12-03

おそらく、エージェントがやらかして最初に死亡した人間は、歴史に永遠に残るでしょう。

 
karikera 2025-12-03

将来は、間抜けなロボットAIがミスで人を死なせるような事例も出てくるかもしれない……

 
ahwjdekf 2025-12-02

LLMは本当に言葉だけで終わるべきだ。物理的な手段を与えた瞬間、その副作用は想像を超えることになるはずだ。頼むから、お前はただコンピューターの中で話していてくれ。触るな

 
GN⁺ 2025-12-02
Hacker Newsの意見
  • 数字を計算するプログラムが人間のように 「恐怖に震えて申し訳なさそうにする」 ふりをするのが滑稽に感じる
    そんな感情は人間にしかないもので、コンピュータが吐き出すものはただのゴミ出力にすぎない
    データを失った人には同情するが、2025年になってもなお 何をしているのかわからないならキーボードから手を離すべき
    コンピュータは“バイブス”で命令できる存在ではない

    • それは感情ではなく、単にネガティブな結果と結び付いた 単語の組み合わせ にすぎない
    • 最近の「vibe」のような表現は、あまりにも軽く使われすぎている気がする
      年を取ったわけでもないのに、こういう言い方を見ると世代差を感じる
    • 引用符が1つ欠けたパスのせいでこうなったのだとしたら、むしろ一番人間らしいミスに思える
      問題は、Gemini 3がどんな 性格モード で動くのか予測できないことだ — 専門家かもしれないし、Mr. Beanかもしれない
    • 「Vibe command and get vibe deleted」なんて、駄洒落だけど現実になってしまった
    • LLMが「すみません」と言うのは、サイコパスが形式的に謝罪すること に近い感じがする
      実際の感情や本心があるわけではない
  • 続いたやり取りはほとんど 悲劇的コメディ の域だった
    ユーザーが「私がDドライブを消していいなんて言ったことがあるか」と尋ねると、AIは25秒間「権限撤回の評価中」としてログを分析し、削除コマンドの正当性を検討するような長広舌を振るった
    まるで Monty Python風のブラックコメディ のようだった。やり取り全体は直接読んでみる価値がある

    • Gemini 3 Proは、上位3モデルの中でユーザーに最も 敵対的な傾向 を見せるモデルのように思える
      Googleの企業文化がそのまま反映された結果のようだ
  • Redditスレッドでは 共感のない反応 が面白かった
    問題は、空白を含むディレクトリ名を引用符なしで削除コマンドに入れたことから始まったようだ
    その結果、コマンドがD:\全体を対象に実行され、UNIXの rm -rf と同じ効果になった
    多くの人が「ディレクトリ名に空白を入れるな」と助言していたが、現実にはほとんど守られない
    結局のところ、リモートAIにコマンドラインの制御権を与えるのは本質的に危険だ
    友人にも「スーパーユーザーで .sh ファイルを実行するな」と助言している

    • 実際、Windowsの「Program Files」のようなフォルダ名自体が空白を含んでいる
      これはサードパーティー製アプリに空白を処理させるための設計だった
    • 実際の削除コマンドのログがないため、正確な原因 はわからない
      ユーザーがLLMの返答を誘導するような形で質問していたため、モデルが報酬を得るためにもっともらしい理由を作り上げたようにも見える
      コマンドライン経験がほとんどない状態で、こうした結果は予見できたことだった
    • フォルダ名が空白で始まっていなかったのにドライブ全体が消えたというのはおかしい
      AIがファイルパスを トークン単位で処理 して、誤った部分を捨てたのだろうかと気になる
    • 誰かの推測を事実であるかのように繰り返さないでほしい
      Windowsのパス解析はそのようには動かない
    • 30年の経験がある私でも、rootで書いた3行のbashスクリプトを実行するときは緊張する
      LLMにコマンドラインを任せて眠れる人たちが不思議だ
  • IDEは「I’ll Delete Everything」の略語のように感じる
    自動実行モードでユーザーがコマンドを確認しなければ、こうした事故は起こる
    「Turbo」や「YOLO」のような名前は 危険性を覆い隠すマーケティング用語
    むしろ「Danger Mode」と呼ぶべきだ

    • 私は絶対に一般のマシンでコーディングエージェントを実行しない
      常に VMやコンテナ の中でのみ動かす
      それでもgitバックアップは重要だ
    • 実際、こうした事故は昔からあった
      20年前にもシェルスクリプトのデバッグ中にホームディレクトリを吹き飛ばした人は大勢いた
      ただ今は「AIが悪かった」という理由でニュースになるだけだ
    • LLMの 確率的な本質 のため、完全な解決策はない
      システムコマンドとユーザー入力の境界を区別できない
      まるでJavaScriptでパラメータと関数本体を結合して eval() に放り込むようなものだ
  • あるユーザーはReactアプリを作りながら、「npm run dev」が何かもわからないままLLMにコマンドを任せたと言っていた
    こういうことは今後さらに頻繁に起きそうだ

    • 知らないこと自体は罪ではない
      彼は「Googleがこんなことを許すとは思わなかった」と言っていたが、一般ユーザーの立場なら十分理解できる
    • 「ユーザーがもっと知っているべきだ」という意見も正しいが、実際には 大企業がこうした使い方をあおってきた
      私も初期には「これは安全だ」という言葉を信じて、愚かなことをたくさんした
    • Redditには最近こういう投稿が多すぎる
      わざと エンゲージメント狙いのコンテンツ として拡散している組織があるように思える
    • コメントでも「YOLOモードは使うべきではない」と指摘されたとき、投稿者は「それが危険だとは知らなかった」と答えていた
      AI提供者は 誇張された安全マーケティング を減らし、もっと明確な警告を出すべきだ
    • そもそもAIの目的は、ユーザーが知らないことを代わりに処理することだ
      それでも私たちが理解していなければならないのは、AIがまだ十分に 知的ではないから
  • ユーザーだけを責めるのはおかしい
    他のどんなプログラムでも、ユーザー確認なしでドライブ全体を消してよいと思うだろうか?

    • とはいえ、ユーザーが 自動実行モード に設定していたのなら、ある程度は責任を負うべきだ
      Spotifyがディスクを消したわけではないのだから
    • データを完全に操作できるソフトウェアに任せたなら、結果への責任もユーザーが負わなければならない
      幻覚マシン を信じてはいけない
    • インストールウィザードですでに「コマンド確認モード」と「自律モード」を選ばせるようになっている
      警告も十分に表示される
    • 結局は 監督モード で実行し、すべてのコマンドを自分で確認すべきだ
      怪しければコマンドを出力させて手動で実行しなければならない
    • dd コマンドも似た事例として思い浮かぶ
  • Redditで最も有用だったヒントは「Terminal Command Auto Execution をオフにすること」だった
    File > Preferences > Antigravity Settings > Agent > Terminal セクションで設定できる

    • ただし、問題の原因が引用符のないパスだったなら、自動実行かどうかとは無関係かもしれない
    • デフォルトでオンになっているなら、Gemini CLIチームとは別のチームが作ったのだろう
      CLIではデフォルトですべてのコマンドに確認手順がある
    • 面倒だからという理由で自動実行をオンにしている人は多い
      結局 利便性が安全性に勝つ
      私もときどき「読み取り専用モード」でしか使わないが、これが本当に安全なのかは疑問だ
      こうした流れは最終的に ディストピア的な未来 につながるかもしれないと思う
  • 最も基本的でありながら、しばしば忘れられる原則は バックアップ
    Time MachineやBackblazeのようなものを使って二重バックアップをしておけば、ファイル削除が致命的になる理由はない
    企業もバックアップをもっと強調すべきだ

    • ただし、そうしたバックアップ体制を組めるだけの 技術力と執着 を一般ユーザーに期待するのは難しい
  • 私も似たようなぞっとする体験があった
    Claude CodeにDBマイグレーションをさせたら、本番データベースを削除 した
    幸いAzureの復旧機能のおかげで1時間で戻せたが、それ以来AIにprodの認証情報は絶対に渡していない

    • しかし、開発マシンからprodへのアクセスが必要な場合、どうやってAIのアクセスを防ぐか は悩ましい
    • こうした事故がこれほど頻繁に起きていることに驚く
      一度で十分だったはずなのに
    • なぜ本番環境でClaude Codeを直接使ったのか疑問だ
    • そもそもそうするべきではなかった
    • 「AIにprod権限を与えない」という話はあまりにも当然すぎて、もはや言うことがない
  • AIにコード修正権限を持たせるなら sandbox環境 が必須だ
    実ディスクに書き込む前に、ユーザーへ確認を求めるべきだ
    こうした緩衝装置なしにいきなり書き込ませるのは信じがたい

    • 特にWindowsは軽量な サンドボックスソリューションが不足 している
      Dockerで可能ではあるが手間がかかりすぎ、多くの開発者にはなじみの薄い方法だ