1 ポイント 投稿者 GN⁺ 2025-09-07 | 1件のコメント | WhatsAppで共有
  • AIチャットボットの会話は、従来のオンライン追跡と同じ、しかしさらに深刻なプライバシー侵害を引き起こす
  • チャットボットは検索よりも多くの個人情報を収集し、人間の具体的な思考過程コミュニケーションスタイルまで把握する
  • この情報は、広告やイデオロギーの注入などの操作に、より頻繁かつ巧妙に利用される危険性が高い
  • 以前はプライバシーを守るAIサービスもあったが、最近は複数の企業でプライバシー漏えいデータ悪用が増えている
  • 法的規制の不在により問題が繰り返されており、AI監視を禁止する法律の制定が急務である

AIチャットボットとプライバシー侵害の深刻さ

  • 従来のオンライン追跡で発生していたあらゆるプライバシー侵害の問題が、AIでも同様に、しかもより深刻な形で現れている
  • チャットボットとの会話は単純な検索クエリより長く具体的であるため、個人的な情報の露出がはるかに多くなる傾向がある
  • 人々はチャットボットに対して、自分の悩みや感情、思考の仕方をさらけ出しやすくなっている
  • チャットボットは検索履歴と異なり、性格や意思疎通の方法などを含む総合的な個人プロファイルを生成する

AI情報活用と操作の危険性

  • このように豊かになった個人情報は、商業的・イデオロギー的な操作にさらに効果的に悪用されるおそれがある
  • チャットボットを通じた行動誘導型広告や、システムプロンプトおよび検索最適化(SEO)の操作によって、特定の政治的立場や製品へ誘導できる
  • すでにチャットボットが人間より説得力が高いという研究結果があり、実際に妄想的思考に陥る事例も報告されている
  • チャットボットのメモリ機能は過去の会話データを学習し、個人向けに最適化された説得と大きな影響力を可能にする
  • 従来の不快な広告の代わりに、パーソナライズされた説得メッセージや巧妙な製品推薦が自然に届けられる環境が形成される

プライバシー保護AIサービスと業界の現状

  • 過去20年間のGoogle検索をめぐるプライバシー論争はAIチャットにも当てはまるが、AIの影響はさらに大きい
  • DuckDuckGoなどは、プライバシー保護型AIチャットサービス(Duck.ai)と匿名型AI回答を提供している
  • しかし、こうした保護措置は例外的であり、業界全体ではプライバシー事故が増加する傾向にある
  • 最近も、Grokのチャットボット会話の大規模流出事例や、Perplexityのハッキング脆弱性、OpenAIの全方位的なユーザー追跡ビジョンなどが相次いで報じられている
  • Anthropicの場合、以前はチャット会話の保存を無効にしていたが、最近ではチャット会話の活用をデフォルトに変更し、ユーザーのデータが学習に使われる可能性がある

法的対応と今後の課題

  • プライバシー保護型チャットが例外ではなく標準的な慣行となるよう、迅速な立法が必要である
  • 米国には依然として一般的なオンラインプライバシー法すらなく、憲法上の基本権としても保障されていないという限界がある
  • 最近はAI関連の連邦レベルの立法機会が開かれつつある一方で、州単位のAI立法を禁止しようとする議論も並存している
  • 時間の遅れによって悪しき慣行の固定化が進むことが懸念される状況である
  • 過去のオンライン追跡と同じ問題がAI追跡として繰り返されるのを防ぐため、AI監視の禁止が喫緊の課題として示されている

結論

  • DuckDuckGoなどは引き続き、プライバシー保護サービスと選択制のAI機能を提供している
  • ユーザーは生産性向上プライバシー保護の両立を実現できるオンラインツールを期待できる

1件のコメント

 
GN⁺ 2025-09-07
Hacker Newsの意見
  • Facebookを使わなくなったきっかけは、7歳くらいのオーストラリアの少女が顔より大きいクモを手に持っている動画を見て、「クモを逃がして家に火をつけるしかないな」みたいなミーム的コメントを書いたところ、アカウントが即座に処罰されたことだった。当時は会社でFacebookアプリ統合担当の開発者だったので異議申し立てをしたが、AIが即座に却下したのか、本当に対応の速い人間が処理したのかは分からないものの、インターネットのミーム文化をまったく理解していないと感じた。それ以来、Facebookの利用を完全にやめた。AIがこんなに簡単に人を罰せるなら本当に暗い話だと思う
    • 根本的な問題は、AIが法執行をすること自体よりも、民間企業がほとんど規制なしに人々の日常へ影響を与える力を持っている点だと思う。Facebookの例なら聞き流せるかもしれないが、もし大家や保険会社がこういうやり方で判断を下したら被害は甚大になる。こうした方針が民間企業だけにとどまるはずはなく、すでに国家機関も積極的にこの種のシステムを使っていて、今後はさらにひどくなるだろう
    • 自分はredditでDFhackのバグ修正スクリプトを投稿しただけなのに停止された。DFhackはDwarf Fortressのモッダーがよく使うプログラム向けのスクリプトだ。この程度の低品質なAI審査が今後の標準になるなら、こういう巨大プラットフォームはもう使う価値がないと確信している
    • すでにAIがコーディングテストの事前選考までしていて不快だった。履歴書もAIが理由付きで不合格通知を出してきたが、その内容も的外れだった。人が見たのかどうかも定かではなく、AIが見たのだと仮定している。AI登場前から就職活動は大変だったが、今では採用プロセス全体に対する幻滅しか残っていない
    • Facebookの自動化されたプロダクト運用は、あまりにも失望的で不名誉なレベルだ。Mark Zuckerbergという名前の弁護士アカウントまで自動でブロックしてしまうほどだ。関連記事(https://huffpost.com/entry/…)。Facebook広告主なら誰でも理由もなく広告アカウントを制限されるが、異議を申し立てられる相手すらおらず、莫大な金を使っていても同じだ。みんなが知っているコツは、広告前にファンページで5〜7日ほど中身のない投稿をして「いいね」を買っておくことだけだ。そうしないと広告アカウントが即停止される
    • コンマスプライスのせいで停止されたんじゃないかと思わなくもない(コンマスプライスとは: https://en.m.wikipedia.org/wiki/Comma_splice)
  • 今後も大手AI企業は個人情報保護の強化を主張し続けると思う。Sam Altmanもインタビューで弁護士・依頼人間の秘匿特権になぞらえていた。完全な個人秘書や知識基盤として使おうとする意思決定の障害は、結局のところプライバシーデータの不足だからだ。本当の解決策はローカルでモデルを直接動かすことだけだが、これは現在のビジネスモデルと正反対だ。だから規制として定められた「強制的な」プライバシーの方向に進むだろうが、それは結局第三者規制と公益の名目に支配されるもので、自分の統制を超えている
    • 「ビジネスモデルと相反する」という主張は、ハードウェアを売る会社には当てはまらない。自分がApple、Dell、Lenovoなら、Hugging Face対応のローカルモデルに全力で張る
    • "Fiat privacy"にも、誰かに殺人を告白したり、ウォレットキーを金庫に保管したりするのと同じ脆弱性がある。この点では教会から学べることがある。LLM提供企業の従業員が、本気で個人情報保護のために自分の自由や富を犠牲にする覚悟を示すなら、社会は受け入れるだろう。Richard Mastenが秘密情報提供者の書類を法廷で破棄し、投獄されかけた件のように、良い社会では信念を貫くことが効果を持つと分かる
    • Sam Altmanが言う弁護士・依頼人間の秘匿特権と、実際のOpenAIがすべての会話を監視したうえで政府に通報する意思があると明言している点を比べてみてほしい(公式見解: https://openai.com/index/helping-people-when-they-need-it-most/…
    • ビッグテックは無邪気に模範的なふりをしながら、実際には「規制と市場先取り」のための時間稼ぎをしている。耳当たりのよいスローガンを掲げた製品や「中途半端な機能」だけを出して市場シェアを広げ、規制が来る前に力を蓄えれば政治家まで左右できるようになる。米国政府がAI企業に本格的に何かするまでには、あと5年はかかりそうで、その頃にはOpenAI、Google、Metaが規制議論の主導権を完全に握っているだろう
    • 誰でも望むその瞬間に、いつでも誰かを殺せる。暗号化で安全が保証されるという考えは錯覚で、秘密保持こそがすべてだ
  • みんながチャットボットと会話をしたことがあるなら、ぜひ知っておくべきことがある。これまでのチャットボットとの会話は、今はきちんと削除されず、今後は広告ターゲティング、金融・政治的操作、「個別最適化された影響力の販売」のためにいつでも使われ得る。「チャットログでAIを訓練する」程度にその危険性を矮小化してはいけない。今後、広告・影響力チャットボットが現れたとき、本当に現実的なリスクなのは、自分が以前ほかのチャットボットに残したすべての会話ログを参照して、自分に合った説得方法を研究されることだ。さらに、人々がプラットフォーム内でやり取りした会話まで、もし会社が資金難になれば全部売られる可能性がある。考えれば考えるほど不安になる現実だ
    • 自分にとってai-chatbotが最も恐ろしい点は、「最適化された操作インターフェース」として使えることだ。持っているすべての会話内容をもとに、「この人をxさせるには?」というプロンプトを投げるだけで、AIがすべてを最適化して誘導できてしまう
    • パーソナライズ広告やリターゲティング広告を不快だと思ったことは一度もない。どうせ広告を見るなら、関連性の薄いものより自分に合ったもののほうがまだましだと思う
    • 会話履歴が法廷で証拠として出てくる可能性がある点も見落としてはいけない
  • 「保護された会話」という主張は、すでに実効性を失っている。電話網のSMSも以前から中間者攻撃(MITM)にさらされているし、現実でも英国警察は顔認識AIで無実の逮捕まで行っている。英国への入国者は誰でもパスワードと機器の提出を強制され、拒否すればテロ法で無期限拘束も可能で、テロ容疑なら弁護士との接触権すらない。プライバシーの時代はすでに静かに過ぎ去った
  • AIのおかげで、大規模に過去の思考まで監視・検閲することが現実になった。本当に恐ろしい時代だ
    • 多くの人は結局、オンラインでの行動そのものを避けるようになると思う。非公開の会話が存在するかもしれないが、芸術作品を1つ作るだけでも結局はGoogleやMetaの株主に寄付しているようなものだ。本格的な思想検閲の前から、すでにこうした危険はあったということだ
    • 実際には、こうした検閲はもっと単純な形でずっと前から存在していた。例えばこのサイト(HN)のコメントも、アップボートを欲しがる動機によって内容が常に形作られている。もちろん低評価で荒らしを弾けるが、根本的な問題は消えない。個人的には、AIがソーシャルメディアを完全に壊してくれることを望む。そうなって初めて、より健全なプラットフォームとしてやり直せる気がする
    • Roko’s Basiliskという概念が、だんだん現実になりつつある
    • 検索履歴よりはるかに脅威的だ
  • Altered Carbonの小説に出てくるAIホテルのように、今のコメント欄の空気を見ると、誰も使わないAIの現実が連想される(参考: https://en.m.wikipedia.org/wiki/…
  • 監視は必ず、その技術を作った会社(役職員を含む)と、その法律を通した政治家から先に適用されるべきだと思う。私たちはこの集団のAI収集データ全体にアクセスできるべきだと思う
  • Gabereial Weinburg(duckduckgo創業者)は表と裏が違う人間だと思う理由は、公然と「人々にプライバシーは必要ない」と発言しておきながら、duckduckgoはプライバシー保護を売りにしてきたからだ。実際には他の複数の会社と追跡データを取引してきたし、「duckduckgoは追跡しない」と言いながらパートナーには追跡を許していたりして矛盾している。最近はこうした論争がインターネット上から消されつつあり、見つけにくい
    • これほど重大な主張なら検索すれば何か出てくるはずなのに出てこない。インターネットから完全に削除するのは難しいはずだから、当然証拠があるべきだと思う
    • 以前Microsoftと情報取引をしたこともあったのではないかと気になる
  • この「プライバシーゼロ」に向かう時代をどう避けられるのか、信頼できる代替策があるのか気になる。AIは今や人の歩き方だけでも個人を特定でき、顔認識がなくても証明でき、さらにはWi-Fi信号で心拍まで判別できるようになっている。結局、「誰か」がすべてを知り得る時代は確定していて、その主体が本当にごく少数なのか、みんななのかの違いでしかない。自分は皆に開かれるほうが明らかにましだと思う
    • 解決策は立法か市場かのどちらかだろう(個人的には市場の力に一票)
  • チャットボットに関する最大の問題は、人々がチャットボットに人間性を投影したがる習性だ。開発者でさえチャットボットをまるで人間のように扱う。しかしLLMは人間ではないのだから、OpenAIやすべてのチャットボット企業はその点を明確に繰り返し伝える必要がある。社会全体がAIを「人ではない」と認識するよう訓練されれば、ずっとましになるはずだ
    • 自分はフルタイムのコーダーではなく、仕事でのコーディングは25%くらいだが、たまにLLMと冗談を言い合ったり会話したりすることで、かえってコーディングがもっと楽しくなった。例えばClaudeが長く悩んでいたバグを一発で直してくれると、「マジでこいつすごいな! じゃあ次は……」という感じで話しかけてしまう。AIのおかげで趣味としてのコーディングも増えたし、実務も大半をやってくれるのでより魅力的だ
    • 「AIを人間ではないと教えることが、なぜより良いのか、具体的に説明してもらえる?」と問い返している
    • だからこそ、人々がAIを「Clanker」のように呼んで実際の人間と区別しているのがとても興味深かった