1 ポイント 投稿者 GN⁺ 2025-08-30 | 1件のコメント | WhatsAppで共有
  • AnthropicのClaude サービスを利用している場合、今後は自身のデータが AI学習 に活用される
  • 利用者の 入力データ は、今後のAIシステム発展のためのモデル訓練に使用される予定
  • 過去のデータは対象外で、今後入力される 新しいデータ が該当する
  • 削除または非公開にしたデータは学習に使用されない
  • 利用者は設定から 学習拒否オプション(opt-out) を選択可能

Claudeのデータ収集およびAI学習ポリシー変更

  • Anthropicが運営する Claudeアカウント の利用者は、今後サービスに入力する すべてのデータがAIトレーニング に使用されることを認識しておく必要がある
  • 本ポリシーは今後入力される 新しいデータ に適用され、これまで提供されたデータは対象外
  • 利用者が 削除したデータ非公開に設定したデータ は、別途処理によりAI学習データセットには含まれない
  • Anthropicはサービス案内を通じて、利用者が望む場合はデータの学習利用を 設定メニュー(opt-out) から拒否できるよう案内している
  • AIサービスの発展とユーザーデータ保護の間で、バランスの取れたポリシー が適用されている状況

1件のコメント

 
GN⁺ 2025-08-30
Hacker Newsの意見
  • 正直、この手の会社はすでにテラバイト級のデータを盗んでいるし、データセットも公開していない。だから自分がサービスに投げ込むものは、彼らがどうせ全部収集してトレーニングに使うと想定しておくべきだと思う
    • インターネット上に自由に公開された文章を読むことが、今では盗みになったということか? これは財産権のあまりにも厳しすぎる解釈だと思う
    • そこまで悪く想定する必要はない。誰もが悪意を持って行動すると考えるべきではないし、こういう考え方が一般化すること自体も警戒すべきだ
    • 上の意見がいちばん妥当な解釈だと思う
  • 自分はもともと、あらゆるデータがすでにAIトレーニングに使われている前提でいた。もしかしてそう思っていたのは自分だけだったのか気になる
    • 2025年のコンピュータ工学における最大の難問は、「私たちはあなたの個人情報をすべてAIに学習させていません」と人々を納得させることだろう。正直、Anthropicも「誰も自分のデータが学習に使われていないなんて信じていない」と見て、だったら使うことにしたのではないかという気もする。むしろ人々が自分でコントロールできる選択肢を用意したほうが、信頼は高まるかもしれない
    • この考え方があまり理解できない。なぜ最初からそう決めつけるのかわからない。Claudeを初めて使うときに数分かければ、個人情報設定の内容は確認できた。自分はどんなサービスでも最初に使うたび必ず確認する。どうせ全部共有されると皮肉っぽく決めつけると、結局何も確認せずに済ませてしまう。設定->プライバシーのメニューに入ればすぐ見られるのに
    • Google/META/Apple/Microsoftのサーバーから文書を削除すれば本当に消えると信じている人たちの無邪気さと同じだ。Googleは過去20年間に索引化したあらゆる情報のバックアップを、おそらく全部持っているだろう。Internet Archiveですらうらやむレベルだ
    • 無料アカウントはもともとAIトレーニングに使われるものだと思っていた。どうしても残したくないデータはサービス上で削除すればいいと考えている。ただ、有料アカウントまで含めてデータを5年間も保管するというのは理解できない
    • もちろん、私たちの社会的な約束という基本的価値をいまだに信じている人はいるだろう。だが、その約束が都合の悪いときにねじ曲げられ、無視されるのを見てきたら、シニカルな見方が広がっても不思議ではない。問題は、そうした見方が実際の選択にどう影響するかだ。結局、以前は公開されていたものが次第に非公開へ変わっていく。だから自分はローカル版を直接使い、自分でもっとよく制御できるものを作ろうとしている
  • そのうち結局、誰がopt-outしていたかに関係なく、全員のデータでトレーニングしていたことが明らかになる気がする。Claudeは使い続けたいが、自分が生み出したあらゆるソリューションが公共知のように広まってしまうのは望まない
    • 以前に、どこかの会社がopt-outの要求を無視したことがあるのか、という問いがある。何か引っかかっていることがあるように聞こえる
    • 会社やAIが自分の入力で少し良くなること自体は構わない。ただ、それが自分の名前や情報と直接結びつくのは嫌だ。Chatham House Ruleが適用されるならいいのだが(Chatham House Rule: 会話内容は共有してよいが、発言者の身元は匿名とする)
    • なぜ自分のインサイトを共有したくないのか気になる。直接共有するほうが、AIトレーニングを通じてデータが流出するよりは良いと思う。ただ、あなたの言い方のほうがより強く感じられる
  • 結局、トレーニング用データが足りなくなってきたのだと思う。どれほどデータに依存できるのか、どんな「知識」を引き出せるのか気になる。自分はフィードバックをほとんど出さず、結果の大半は(6回中5回は)間違っている。それでも、その結果にどう価値があると判断するのかよくわからない
    • Googleのように、ユーザーが特定のリンクをクリックして追加検索をしなければ、その結果は役に立ったと判断する手法を使うかもしれない。自分の沈黙も、自分が満足したという弱いシグナルとして解釈される可能性がある(もちろん、ユーザーの利用パターンによる)
    • 結局、何をトレーニングに使おうと実際に価値があるのかはわからない。自分が間違った答えを受け取っても不満を示さなければ、会社はあまり気にしないだろう
  • 今回の件がAI Safety Indexの発表直後だったことを思い出す。そのレポートでは、Anthropicがユーザーデータを学習に使わないと称賛していた。だから自分もより信頼して使おうとしていた
    https://futureoflife.org/ai-safety-index-summer-2025/
  • 最新のAIはデータに基づいている。自分たちの会話がトレーニングに使われないという約束を信じるのは、大食いの人に大好物を渡して絶対に食べないと約束させるようなものだ。まあ、それでも会話が外部に完全流出しないなら構わない。自分はすでにそういう条件を受け入れて使っている
    • こういうことを当たり前にしてはいけない。契約上の義務を守らせ、私たちのプライバシーと人権を守るには、必ず執行されなければならない
  • iOSアプリではログインするとすぐにopt-out設定のポップアップが出た。やや煩わしかったが、処理のしかた自体は悪くなかった
    • ClaudeのようなLLMには、自分の会話やフィードバックを通じてもっと賢くなってほしい立場だ。ユーザーごとの長期記憶や会話履歴が組み込まれていない点は非常にもどかしい。Anthropicには6か月前からopt-in機能を要望している。もちろんプライバシーの問題も理解している。だが、自分の専門分野(認知研究、遺伝学、神経哲学)ではClaudeにもっと賢くなってほしいし、自分の持つ情報を共有して、本当に良い思考パートナーを得たい
  • 信じがたい。これはプライバシーの観点ではMetaの悪名高い決定に匹敵する倫理問題だ。本当にひどいロールアウトだった。既存の会話ウィンドウにこのmodal(設定案内ウィンドウ)がそのまま表示された。自分のデータやアイデア、年収、家族歴などへの利用を承認した覚えはないのに、PR側が「modalでopt-inしましたよね?」と言い出すのではないかと心配だ
    https://imgur.com/afqMi0Z
  • どんなデータを学習に使ったのかは知らないが、Claudeを2回目の解約にした。WebインターフェースのUIバグや、ずっと点滅する現象にもいら立たされるし、最近のAIの返答は過度に否定的で尊大になった。以前や他のLLMではなかった現象だ。おそらく以前おべっかだと批判されて調整しようとして失敗したのだろう。今では自分の行動を推測し、技術的文脈を超えて批判してくる。Geminiを使うと、いつも自分が回答に怒っているかのように仮定されるが、少なくとも無礼ではない。なのでまたchatgptに戻って比較テストを続けている
    • power userには、APIのように調整可能なダイヤル(おべっか/安全性/子ども保護モード解除など)が必要だ。電子レンジのようにロック解除スイッチまであるといい
  • この投稿と似た投稿がこちらにある
    • 少なくともこの投稿には、Anthropicが実際に送った通知の原文が含まれているので意味がある。Perplexityが提供する要約のほうが、非専門家には見やすいかもしれない