- Anthropicが消費者向け利用規約と個人情報処理方針を更新
- ユーザーは自分のデータをモデル改善に利用することを許可するかどうかを直接選択できるように変更
- Claude Free、Pro、Maxプランに適用され、既存の商用サービスおよびAPIユーザーは対象外
- データ提供を許可すると、モデルの安全性強化と今後のモデルにおけるコーディングなど機能向上に貢献可能
- データ利用への同意、保存期間、変更事項などは設定からいつでも管理可能
更新の主な内容
- AnthropicはClaude AIの性能向上とユーザー保護の強化のため、消費者向け利用規約および個人情報処理方針を更新
- ユーザーは自分のデータをClaudeのモデル改善および安全対策の強化のために提供するかどうかを選択可能
- 設定でいつでもデータ提供の有無を調整可能
適用対象と例外
- 今回の更新は、Claude Free、Pro、MaxプランおよびこれらのプランのClaude Code利用者にのみ適用
- 商用規約の下で提供されるサービス、すなわちClaude for Work、Claude Gov、Claude for Education、API利用(第三者経由を含む。例: Amazon Bedrock、Google Cloud Vertex AI)には適用されない
データ利用同意の影響
- データ提供に同意した場合、モデルの安全性向上とともに被害・悪用防止システムの精度が向上
- コーディング・分析・推論など、将来のClaudeモデルのさまざまな能力向上に貢献可能
- この設定は常にユーザーが直接制御でき、新規登録時または既存ユーザーはポップアップ画面を通じてオプションを選択可能
通知と発効
- アプリ内通知を通じて、ユーザーに更新内容と設定変更の機会を案内
- 既存ユーザーは2025年9月28日までに規約への同意とデータ提供の可否を決定可能
- 同意すると直ちに新しいポリシーが適用され、新規または再開された会話やコーディングセッションにのみ適用
- 2025年9月28日以降は設定を自分で選択しなければClaudeを継続利用できない
- Privacy Settingsでオプションを変更可能
データ保存期間の延長
- モデル学習のためのデータ提供に同意した場合、データ保存期間が5年に延長
- この保存期間の延長は新規/再開された会話およびコーディングセッションにのみ適用され、モデル改善と安全性向上に活用される
- 会話を削除した場合、そのデータは今後のモデル学習には使用されない
- データ提供に同意しない場合、従来の30日保存ポリシーが維持される
フィードバックデータの処理
プライバシー保護とデータ処理方式
- Anthropicは機微データを自動化されたツールとプロセスでフィルタリング/仮名化し、ユーザープライバシーを保護
- ユーザーデータは第三者に販売されない
追加情報
- 消費者向け利用規約および個人情報処理方針の詳細な変更点はFAQセクションで確認可能
1件のコメント
Hacker Newsの意見
ユーザーが実際には助けを得ているのに毎回不満のフィードバックを残したり、悪意を持って会話を破壊的な方向へ誘導したあとで非常に肯定的なフィードバックを残したりして、将来の学習データセットを汚染できるのか気になる
デフォルトが opt-in であるかのように見せつつ、実際には事実上の opt-out 方式で、単なる利用規約更新のようなプロンプトへ誘導している点が気に入らない。5年間のデータ保持も長すぎると思うし、新しい規約に他にも問題のある内容がないか疑っている。結局これがきっかけで購読を解約した
Claude が私の数学研究を手伝っている。会話の中でまだ発表していない研究アイデアを Claude に伝えると、その後 Claude が他人に同じアイデアを勧め、その人がそれを自分のアイデアだと信じる状況が心配だ。商用アカウントだけでなく、個人も AI を使った知識開発においてプライバシーが必要だと感じた
予想どおりの話だ。主要プレイヤーはすでにインターネット全体や、訴訟まで招いた盗用コンテンツまで含め、ほぼあらゆるデータで学習する限界に突き当たっている。ここ数年モデルアーキテクチャに大きな革新がなかったため、いまやより多くの学習データをめぐる戦争になっている。結局ユーザーデータにまで手を伸ばし、ますます胡散臭い手段まで使おうとしている
多くの人は驚かないだろうが、個人的にはかなり衝撃的だ。たとえば Google がユーザーの Gmail 本文を検索結果に載せないのと同じで、こういう行為は自傷的なビジネス判断だと思う。自分が何か見落としているのかと思ってしまう
これまで AI がユーザーとの相互作用からまったく学べないこと、特に同じミスを繰り返すことにむしろいら立っていたので、今回の変更がようやく行われたのかという驚きのほうがある
多くの人が反対の立場なら、自分はむしろ前向きに見る。LLM に過去の会話を学習させることを許可するのは、モデル発展にとって非常に重要だ。長期的には少数企業に集団知が集中するのは危険だとも認識している。だから最終的には、個々の組織や個人が自分でモデルを運用・学習する「self custody」方式が唯一の解決策になりそうだ。もちろん、実現にはコストがかなり下がる必要がある
今さらポリシーが変わったことのほうがむしろ悪い。自分は以前から自分のデータを学習に使ってほしかったし、むしろ継続的に学習しても構わないと思っている。データプライバシーに極端にこだわりたいなら、自分のデータを使わなければいいだけだ。自分は完全に逆の立場なのに、企業はそういう志向をまったく考慮していない。Google にも「自分の全データを積極的に学習に使ってほしい」というオプションがなくて不満だ。自分がどこに住んでいるかも何度も入力しているのに、相変わらず覚えていない。『誰も自分のデータを共有したくない』という前提ですべてが設計されている。医療分野の DeepMind インタビューも、どれもデータ共有への恐怖や災厄、強迫観念から始まる。自分はそのせいで大きな被害を受けたことはなく、むしろ医療の発展で恩恵を受けてきた。NHS でも「自分のデータを積極活用してよい」に毎回チェックを入れようとしているのに、いつもデフォルトは「全部拒否」なので選ぶのが面倒だ。一度だけのマスターチェックで「自分のデータを全部活用して、もう二度と聞かないでほしい」という選択肢がほしい
Anthropic が長期的な視点で、小規模だが技術的に強いユーザー層を狙っていると信じていた。原則として購読を解約するつもりだ。オープンソースモデルはまだ Claude ほど自分の要求(ISO/IEEE 標準中心のセキュリティテスト準備)を満たしていないが、解決策は探すつもりだ
なぜ perplexity.ai が書いた AI 要約記事ではなく、実際の公式発表文に直接リンクしないのか疑問だ。実際の発表文 リンク で重要なのは次の点だ。アプリ内通知ポップアップで変更案内と opt-out 選択が可能、設定メニューからいつでも opt-out 可能、9月28日から施行、新規約への同意とセッション更新時にのみ適用、API / external services、Claude Gov、Claude for Education には適用されない。元のリンクのほうが有用だろう