1 ポイント 投稿者 GN⁺ 2025-08-30 | 1件のコメント | WhatsAppで共有
  • Anthropicが消費者向け利用規約個人情報処理方針を更新
  • ユーザーは自分のデータをモデル改善に利用することを許可するかどうかを直接選択できるように変更
  • Claude Free、Pro、Maxプランに適用され、既存の商用サービスおよびAPIユーザーは対象外
  • データ提供を許可すると、モデルの安全性強化と今後のモデルにおけるコーディングなど機能向上に貢献可能
  • データ利用への同意、保存期間、変更事項などは設定からいつでも管理可能

更新の主な内容

  • AnthropicはClaude AIの性能向上とユーザー保護の強化のため、消費者向け利用規約および個人情報処理方針を更新
  • ユーザーは自分のデータをClaudeのモデル改善および安全対策の強化のために提供するかどうかを選択可能
  • 設定でいつでもデータ提供の有無を調整可能

適用対象と例外

  • 今回の更新は、Claude Free、Pro、MaxプランおよびこれらのプランのClaude Code利用者にのみ適用
  • 商用規約の下で提供されるサービス、すなわちClaude for Work、Claude Gov、Claude for Education、API利用(第三者経由を含む。例: Amazon Bedrock、Google Cloud Vertex AI)には適用されない

データ利用同意の影響

  • データ提供に同意した場合、モデルの安全性向上とともに被害・悪用防止システムの精度が向上
  • コーディング・分析・推論など、将来のClaudeモデルのさまざまな能力向上に貢献可能
  • この設定は常にユーザーが直接制御でき、新規登録時または既存ユーザーはポップアップ画面を通じてオプションを選択可能

通知と発効

  • アプリ内通知を通じて、ユーザーに更新内容と設定変更の機会を案内
  • 既存ユーザーは2025年9月28日までに規約への同意とデータ提供の可否を決定可能
  • 同意すると直ちに新しいポリシーが適用され、新規または再開された会話やコーディングセッションにのみ適用
  • 2025年9月28日以降は設定を自分で選択しなければClaudeを継続利用できない
  • Privacy Settingsでオプションを変更可能

データ保存期間の延長

  • モデル学習のためのデータ提供に同意した場合、データ保存期間が5年に延長
  • この保存期間の延長は新規/再開された会話およびコーディングセッションにのみ適用され、モデル改善と安全性向上に活用される
  • 会話を削除した場合、そのデータは今後のモデル学習には使用されない
  • データ提供に同意しない場合、従来の30日保存ポリシーが維持される

フィードバックデータの処理

  • ユーザーフィードバックにも5年保存ポリシーが適用

プライバシー保護とデータ処理方式

  • Anthropicは機微データを自動化されたツールとプロセスでフィルタリング/仮名化し、ユーザープライバシーを保護
  • ユーザーデータは第三者に販売されない

追加情報

  • 消費者向け利用規約および個人情報処理方針の詳細な変更点はFAQセクションで確認可能

1件のコメント

 
GN⁺ 2025-08-30
Hacker Newsの意見
  • ユーザーが実際には助けを得ているのに毎回不満のフィードバックを残したり、悪意を持って会話を破壊的な方向へ誘導したあとで非常に肯定的なフィードバックを残したりして、将来の学習データセットを汚染できるのか気になる

  • デフォルトが opt-in であるかのように見せつつ、実際には事実上の opt-out 方式で、単なる利用規約更新のようなプロンプトへ誘導している点が気に入らない。5年間のデータ保持も長すぎると思うし、新しい規約に他にも問題のある内容がないか疑っている。結局これがきっかけで購読を解約した

    • Anthropic の他のすべての設定では、スイッチが有効なら青、無効なら黒だが、今回の変更案内ボックスだけはスライダーが両状態とも灰色だと気づいた。設定画面で違いを直接見ればわかる。誰かが意図的にこうしたのだと思うと、失望すると同時に少し苦い気分になる
    • 「opt-in by default」という表現には異議を唱えたい。実質的には「opt-out」が正しい。opt-out 設定がデフォルトだ
    • 「5年保持」という部分に触れている。一度モデルに学習されたら永遠に残る
    • 本当に心配なのは5年保持のほうだ。今後5年のあいだに彼らが規約を変更し続け、opt-out オプションを再提示してくるなら、たった一度うっかりクリックしただけですべてのデータを持っていかれることになる。後で opt-out 自体をなくすこともできるし、4年364日後に規約を変えて10年保持へ延長することもできる。そのころにはプライバシーはすでに大きく弱まり、そもそもそういう選択肢が実在しないこと自体に気づく人もいなくなっているかもしれない
    • アプリを開いたとき、変更案内のポップアップと一緒に opt-out オプションが出た。透明性の面では悪くないように見える
  • Claude が私の数学研究を手伝っている。会話の中でまだ発表していない研究アイデアを Claude に伝えると、その後 Claude が他人に同じアイデアを勧め、その人がそれを自分のアイデアだと信じる状況が心配だ。商用アカウントだけでなく、個人も AI を使った知識開発においてプライバシーが必要だと感じた

    • Claude は結局、他人の作業を助けたことになるのではないかという質問を受ける。Claude は本人のチャット以外では、学習データ以外に知っていることはないので、こうした現象は古典的な AI のメカニズムだ
    • AI を巨大な関連付けエンジンのように見ている。数学研究では「誰も考えたことのないアイデア」と「誰かがすでに考えたアイデア」を見分けるのに、もともと長い時間がかかっていた。今ではインターネット、MathSciNet、ArXiv などを行き来しながらキーワードを見つける反復が多かったが、AI では6か月以上かけて珍しい答えを得られるプロンプトを見つける学習に投資している。AI の一般化能力がむしろ混乱を招く。たとえば最も斬新に見えるときこそ、実は以前から皆が考えていた部分をつないでいるだけ、という逆説がある。適切にプロンプトを書けば、AI もこのようにアイデアをつないでくれる
    • 新しい規約に関するポップアップで opt-out を選べば、自分のチャットは学習に使われない
    • 本当に斬新な仕事なら、そうしたものが今後こうしたモデルに現れる確率は非常に低い。こうしたシステムは本質的に多くの人が共有するデータをもとに一般化された出力を出すので、その概念が学習データ内で非常にありふれていなければ推論時に出力されない。実際には革新とプライバシーの両方を守る構造であり、ある程度一般化した概念なら公開知識に含まれる資格も十分ある(IP の問題を除けば)
    • AI 企業が実際には所有していない人間の知識をどこまで活用するのか、その境界は曖昧だ。もしかすると最初から境界など引かれていなかったのかもしれない
  • 予想どおりの話だ。主要プレイヤーはすでにインターネット全体や、訴訟まで招いた盗用コンテンツまで含め、ほぼあらゆるデータで学習する限界に突き当たっている。ここ数年モデルアーキテクチャに大きな革新がなかったため、いまやより多くの学習データをめぐる戦争になっている。結局ユーザーデータにまで手を伸ばし、ますます胡散臭い手段まで使おうとしている

    • 何百ものデータブローカーもユーザーデータを欲しがっているが、AI 企業にはユーザーが毎日自発的にデータを提供する、すでに構築済みのチャネルがある。必要なのはダークパターンな規約変更と、わずかな PR 管理だけだ。こうした論争は1週間もすれば忘れられるだろう
    • 最近の AI モデルが自己生成データを学習して品質低下を起こしているのが興味深い。もう少し慎重に人間+AI コンテンツを分離したり、出版社と契約を結んだりしていれば状況は違っていたかもしれない。しかし皆が焦ってあらゆるデータをかき集めたせいで、結局は全員が損をしている
    • 「盗用」かどうかが論点なのではなく、法廷で自ら違法複製の事実を認めている
    • AI 企業にとってデータは広告業界よりはるかに強力な金脈であり、生存に必須の要素だ。AI と広告業が交わるところで起きる非倫理的な行為こそ本当の問題だ。Google や Facebook もすでに各データプラットフォームを相互連携しているはずだと推測している。これが公然と許される日が来たら、どんな活用ケースが出てくるのか半分期待、半分不安だ
    • こうした事例そのものが、より強力な規制と安全装置の必要性を示している
  • 多くの人は驚かないだろうが、個人的にはかなり衝撃的だ。たとえば Google がユーザーの Gmail 本文を検索結果に載せないのと同じで、こういう行為は自傷的なビジネス判断だと思う。自分が何か見落としているのかと思ってしまう

    • Gmail も2017年までは何年にもわたってメールを解析し、広告配信に使っていた リンク
    • このポリシー変更は業務用・教育用 Claude アカウントには適用されず、従来のプライバシー保護が維持されることを、記事 リンク で知った。実質的に無料または非商用アカウントは Anthropic にとって収益になりにくく、あまり重視されない層だ。今回の決定は、こうした「無料ユーザー」の流入を減らしたい意図もあるのだろう。近いうちに「皆さんの声を受けて、プライバシー重視の商品を新たに提供します。月額30ドルです」といった発表が出ると予想している
    • こうしたデータは強化学習に非常に有用で、他社も皆やっている。しかも必要なら opt-out もできる
    • 反応を「驚き」と捉える枠組み自体が変だ。皆が予想していたことだ
    • Google はメールを深く掘り下げて分析し、マーケティングや政府への提供などさまざまな目的に使っている。しかしメール本文を検索結果に載せることと、Claude が学習に使うことは別だ。この行為で Google は大きな処罰を受けなかった
  • これまで AI がユーザーとの相互作用からまったく学べないこと、特に同じミスを繰り返すことにむしろいら立っていたので、今回の変更がようやく行われたのかという驚きのほうがある

    • リアルタイム学習は起きないし、自分のデータが即座に反映されるわけでもない。学習用データは依然としてモデル訓練(数か月かかる作業)に使われる。一人二人のデータが大半のユーザー向けの流れに大きな影響を与えることはない。自分特有の作業スタイルが反映されるより、多くのユーザーに共通するものだけが学習効果を持つ
    • 相互作用そのものから多くを学べるわけではない。評価指標も個々のユーザーではなくグローバル基準が中心なので、サービスはますます無難になるだけだ
    • 同じ購読料でより多くのデータを得ようという戦略だ。値引きや返金の可能性は低い
  • 多くの人が反対の立場なら、自分はむしろ前向きに見る。LLM に過去の会話を学習させることを許可するのは、モデル発展にとって非常に重要だ。長期的には少数企業に集団知が集中するのは危険だとも認識している。だから最終的には、個々の組織や個人が自分でモデルを運用・学習する「self custody」方式が唯一の解決策になりそうだ。もちろん、実現にはコストがかなり下がる必要がある

    • 相互性があるならこの方式は良いと思う。ただ、自分は毎月20ドル払っているのに、学習データは無料で Anthropic に提供しなければならないのは不合理だ
    • 「皆で一緒に LLM を発展させる」というより、結局は単一の LLM(Claude)のための学習データ提供である点が抜けていると思う
    • 企業のソースコード、シナリオ、健康・金融情報などの機密データを学習させるなら危険は大きい
    • LLM が大きく進歩しなくても構わないと思う
    • むしろ LLM が良くなっても、大半のユーザーに実質的な利益が大きいのかは不確かで、全体としては逆に損になる可能性もある
  • 今さらポリシーが変わったことのほうがむしろ悪い。自分は以前から自分のデータを学習に使ってほしかったし、むしろ継続的に学習しても構わないと思っている。データプライバシーに極端にこだわりたいなら、自分のデータを使わなければいいだけだ。自分は完全に逆の立場なのに、企業はそういう志向をまったく考慮していない。Google にも「自分の全データを積極的に学習に使ってほしい」というオプションがなくて不満だ。自分がどこに住んでいるかも何度も入力しているのに、相変わらず覚えていない。『誰も自分のデータを共有したくない』という前提ですべてが設計されている。医療分野の DeepMind インタビューも、どれもデータ共有への恐怖や災厄、強迫観念から始まる。自分はそのせいで大きな被害を受けたことはなく、むしろ医療の発展で恩恵を受けてきた。NHS でも「自分のデータを積極活用してよい」に毎回チェックを入れようとしているのに、いつもデフォルトは「全部拒否」なので選ぶのが面倒だ。一度だけのマスターチェックで「自分のデータを全部活用して、もう二度と聞かないでほしい」という選択肢がほしい

    • この立場にもっと共感するには、企業が今でもユーザーのために奉仕していると信じる必要がある。でも現実には、自分の情報は自分の利益に反する用途、たとえば詐欺的な商品の広告ターゲティングなどに使われることのほうが多い。AI 企業も大半は VC の影響下にあり、ユーザーのための製品開発より利益優先だ。今は市場シェア獲得のために利用者が厚遇される「MoviePass」時代で、今後はサービス品質が悪化し、濫用の可能性だけが大きくなるだろう MoviePass ウィキペディア
    • 批判的思考なしに本気でこういう意見を持てること自体が理解しがたい
    • 医療データがどれほど重要なプライバシー資産かは、民間医療保険中心の国に住めばすぐわかる
    • これは釣りではないのか、それとも企業がユーザーを最優先で考える理想世界に住んでいるのかと疑いたくなる
    • 自分の人生には「LLM が少しでも良くなればいい」より優先される価値が明らかにある
  • Anthropic が長期的な視点で、小規模だが技術的に強いユーザー層を狙っていると信じていた。原則として購読を解約するつもりだ。オープンソースモデルはまだ Claude ほど自分の要求(ISO/IEEE 標準中心のセキュリティテスト準備)を満たしていないが、解決策は探すつもりだ

    • 結局ユーザーにできるのはサービス解約くらいだ。法律や規制には期待しにくいし、仮に制定されてもコストの支払い程度で済まされるだろう。Web サービスやアプリにデータを提供した瞬間、そのデータはもはや自分だけのものではないと考えて使うべきだ
  • なぜ perplexity.ai が書いた AI 要約記事ではなく、実際の公式発表文に直接リンクしないのか疑問だ。実際の発表文 リンク で重要なのは次の点だ。アプリ内通知ポップアップで変更案内と opt-out 選択が可能、設定メニューからいつでも opt-out 可能、9月28日から施行、新規約への同意とセッション更新時にのみ適用、API / external services、Claude Gov、Claude for Education には適用されない。元のリンクのほうが有用だろう

    • opt-out できるならあまり気にしない。ただし、JetBrains AI や Zed のような Claude API 連携のサードパーティーアプリが、ユーザーの代わりに opt-in の可否を決めるのかは気になる。API ベースの場合、この種の学習オプションは絶対にデフォルト opt-in にすべきではなく、業界全体がこの方式に従うべきだと思う
    • 自分が受け取ったアプリのポップアップにはボタンと画像しかなく、文字がなかった。ダークモードの問題かと思って DOM も確認したが、テキストは見つからなかった。単なる新機能告知だと思って無視した。Reddit で最近変わった方針を偶然見つけていなければ、内容を知らないままだっただろう。たぶん自分以外にも多くのユーザーが見落としたはずだ
    • 自分の以前のコメントが文脈に合っていなかったことを認めて修正する。もともとは perplexity.ai の複数の記事要約へのリンクだったが、ちょうどモデレーターが元の発表文に差し替えた。多くのコメントは AI 要約だけをざっと見て早合点した結果だ。むしろ原文に変わってよかった
    • 複数の記事要約ではなく、元のソースにリンクするほうがずっとよいと思う