vibeコーディングで作られた患者管理アプリのセキュリティ惨事
(tobru.ch)- 医療機関の職員が AIコーディングエージェント で患者管理システムを自作し、患者データがインターネット上に 暗号化なしで露出 していた
- 診療中の会話録音が 2つの AIサービス に送信されて自動要約され、すべてのデータに 読み取り・書き込み権限 が開放されていた
- データは米国のサーバーに保存され、データ処理契約(DPA) なしで運用され、患者への事前通知も行われていなかった
- こうした行為はスイスの nDSGデータ保護法 と 職業上の守秘義務 に違反する可能性がある
- 筆者は「AIコーディングが単なる vibe レベルにとどまると、安全ではない未来 につながる」と警告している
AIで作られた患者管理アプリのセキュリティ惨事
- 医療機関の職員が AIコーディングエージェント を使って患者管理システムを自作した事例
- 既存の患者データをすべて取り込み、インターネット上で公開配布
- 診療中の会話録音機能を追加し、2つの AIサービス に送信して自動要約機能を実装
- 結果として、すべての患者データが 暗号化なしでインターネットに露出 した状態だった
- 筆者は30分で全データへの 読み取り・書き込み権限 を確保
- 問題を報告したが、返ってきたのは AIが自動生成した感謝メッセージ だった
- データは米国のサーバーに保存され、データ処理契約(DPA) なしで運用
- 音声録音ファイルも米国拠点のAI企業へ送信
- こうしたデータ処理について患者への 事前通知は行われていなかった
- この行為はスイスの nDSG(データ保護法) および 職業上の守秘義務(Berufsgeheimnis) 違反に当たる可能性がある
- 筆者は法律の専門家ではないものの、多くの条項に違反していると判断
- 「AIコーディングが単なる『雰囲気(vibe)』のレベルにとどまるなら、安全ではない未来 につながる」という警告を提示
技術的背景
- アプリケーションは 単一のHTMLファイル で構成
- すべての JavaScript、CSS、構造コードがインライン で含まれている
- バックエンドには アクセス制御がまったくないマネージドデータベースサービス を使用
- アクセス制御ロジックは クライアント側JavaScript にしか存在しない
- たった1行の
curlコマンドでもデータにアクセス可能
- たった1行の
- すべての 音声録音ファイル は外部のAI APIに直接送信され、文字起こしと要約処理 が行われていた
- これだけでも 深刻なセキュリティ不備 は明らか
展望
- AIコーディングツールを使う際には、コード構造とアーキテクチャを理解できる能力 が不可欠
- 単に「AIでコーディングの雰囲気を楽しむ(vibing)」レベルのアプローチは 危険な結果 を招く
- AI開発ツールが広がる中で、基本的なセキュリティ意識と技術理解 が必ず必要になる
11件のコメント
まあ、もうすでに……GitHub で
OPENAI_API_KEYを検索してみても、普通に引っかかるものがかなり多いですしね……このままだと、バイブコーディングの資格を取らないといけない時代が来るかも…。
AIを通じて専門家のふりをする人たちが増え、彼らが好き勝手に語り始めたことで、あまりにも混乱した世の中になりました
...
韓国でも、情報保護法および医療法第21条第2項により、医療機関の従事者は例外的な事由に該当しない限り、患者の記録を他人に閲覧させてはならないと定められています。
https://law.go.kr/%EB%B2%95%EB%A0%B9/%EC%9D%98%EB%A3%8C%EB%B2%95/…
韓国の立ち遅れた情報保護環境のせいで、みんなネットワーク分離を信奉しているため、運よく大病院ではこうした事故があまり起きていないようですね。
患者の記録を閲覧する環境が内部ネットワークなので、セキュリティに疎い利用者が商用AIサービスを直接つなぐのが難しいんです。
診療用コンピューターをインターネット網にそのまま接続している一次医療機関レベルで何が起きているのかは分かりませんね(笑)
PHIには常に注意を…そしてまた注意を…
私も友達にClaude Codeを教えたら、約2週間後に「俺、何か作ったよ!!」と言ってきたんですが、まったく同じ状況が起きていました。
セキュリティ脆弱性を発見する技術にも画期的な進歩があったそうですが、
その脆弱性が見つかったということは、それを防ぐ方法の必要性も生じたということなので、
セキュリティ対策も改善されていくように思います。
ひとまず、非専門家はそういうものが存在することすら、なぜ必要なのかも分からないでしょう。
だからこそ、計算機科学を学ぶべきだという警鐘を感じますね。
まさに核心を突いた表現だと思います
Hacker Newsの意見
スペインで似たようなことを経験したことがある。医療分野ではなく小さな保険会社だったが、信じがたいことに彼らも vibe-coding でCRMを作っていた。
私がメールで問題を知らせると、訴訟すると脅してきた。呆れたが、結局 AEPD(スペインデータ保護庁) に通報した。この機関はかなり強力なことで有名だ。
先週の金曜には、自分の個人情報の削除を求める burofax も送った
README.txtで問題を知らせたが何も変わらなかった。直接行って直して、最初の仕事先にでもしようかと思ったが、逆に彼らは怒った。高額な外注業者をすでに使っているのに、私が侵入したと主張した。結局すぐに出てきた
私がいる小規模事業者フォーラムでも、ある人がAIで自分でアプリを作ったと自慢していた。だが法的責任をまったく分かっておらず、Redditで開発者たちに「本物の開発者を雇え」と言われると腹を立てていた。彼は今や、開発者は 絶滅寸前の種 だと信じている
LinkedInでは技術を知らない 営業マン たちが、AIがあらゆる問題の解答だと吹聴している。
こういう空気の中で、いつか本当に大きな事故が起きそうで不安になる
vibe-coding は魅力的だが、限界はすぐに露呈する。
数千行を超えると構造が崩れ、実際のシステムははるかに複雑だ。結局は ソフトウェア工学の基礎 が必要になる。
プロトタイプや社内ツールには向いているが、実運用には危険だ。私はこういうシステムに自分のデータを預けたくない
私はJira Rovo MCPを使ってClaude Codeで設計と文書を作り、手動でレビューした後、新しいセッションで実装している。
LLMはコンテキストが増えるほど愚かになるので、context status bar設定 は必ず使ったほうがいい
私はローカルでGemma 4をテストしたが、遅いもののクラウドモデルと同じくらい強力だった。データが外に出ないのが利点だ
数か月前、外科医が作った vibe-codedウェブアプリ を見た。
動作はしていたが、ルートディレクトリに index.html がなく、バックアップファイルにはDB接続情報とAWSキーがそのまま入っていた。
空のindex.htmlを追加するだけで解決したが、開発者もAIもその理由を分かっていなかった。
アプリ自体は印象的だったが、基本的な セキュリティミス があまりにも多かった。経験のあるDevOpsが一度見れば十分だった話だ
結局AIは「聞かれていないこと」は分からない。経験豊富な開発者は過去の失敗を覚えているが、vibe-coderが持っているのは プロンプト だけだ
「すべてのアクセス制御ロジックがクライアントのJavaScriptにあった」というのは本当に最悪だ。
これは 非専門家がAIを無分別に使った典型例 だ。
AIを実務に使うなら、必ず責任とリスクを認識しなければならない
適切なワークフロー制御と結果検証がなければ、こうした問題は起こり続ける。今はLLMの 西部開拓時代 だ
ソフトウェア工学にも、今や 専門資格制度 が必要だと思う。
橋や建物を設計するのに資格が必要なように、重要なシステムを作る開発者にも一定の基準が必要だ
結局、時間がたてばAIとプライバシーへの理解が定着していくと思う
この記事はあまりに 曖昧で作り話のように 感じる
もしAIが 実装を隠すように学習 され、つまりクライアントを薄くしてOAuth認証を使うような形になれば、もっと良くなるのだろうか。
こうした単純なミスは十分防げる。だが目標は依然として 開発者の置き換え だ。
さらに悪いのは、人々が「難しいことを学ぶのは非効率だ」と信じ始めている点だ。
私は 暗号学 の分野にいるが、学生の中にはセキュリティ技術はもうすぐAIに消されると思っている者もいる。だから単純なウェブ認証実装をやらせて現実を見せている
私の知るある会計事務所も Lovable で自前のCRMを作っている。技術者はまったくいない。
これから起きる 災厄 が目に見える
他の高リスク産業はどこも 二重チェック体制 を備えている。パイロットには副操縦士、外科医にはチェックリスト、原子力発電所には独立検証がある。
だがソフトウェアだけは例外で、vibe-codingは、かろうじて残っていた 理解に基づく検証 すら奪ってしまう