3 ポイント 投稿者 GN⁺ 2026-03-05 | 1件のコメント | WhatsAppで共有
  • TikTokはエンドツーエンド暗号化(E2EE)を導入しないと明らかにし、その理由として警察や安全チームがメッセージを確認できなくなり、ユーザー保護が難しくなることを挙げた
  • 会社は特に青少年保護のためにこの決定を下したと説明し、競合他社とは意図的に異なる方針を取ったと強調した
  • 現在、WhatsApp、Messenger、Signalなど主要プラットフォームはE2EEを標準で適用している一方、TikTokはGmailレベルの一般的な暗号化のみを使用していると明らかにした
  • 児童保護団体NSPCCとIWFはTikTokの決定を歓迎し、E2EEは児童性的搾取の検知を困難にすると評価した
  • しかし専門家らは、この決定が世界的な個人情報保護基準に逆行しており中国との関連性への懸念を強める可能性があると指摘している

TikTokの暗号化方針の決定

  • TikTokは**エンドツーエンド暗号化(E2EE)**を導入しないと公式に確認
    • 会社は、この技術が警察および安全チームが必要な場合にメッセージを閲覧することを妨げ、ユーザーの安全を損なうと説明した
    • BBCロンドンオフィスで開かれたセキュリティ説明会で、特に青少年保護のための措置だと強調した
  • TikTokは競合他社と差別化された戦略としてこの決定を下したと述べた
    • Facebook、Instagram、Messenger、Xなど主要プラットフォームがE2EEを採用しているのと対照的
    • TikTokは標準的な暗号化方式を使用し、特定の状況でのみ承認された従業員がメッセージにアクセス可能だと明記した

E2EEをめぐる論争

  • E2EEは送信者と受信者だけがメッセージ内容を見られる最も強力なセキュリティ技術と評価されている
    • Signal、WhatsApp、iMessage、Google Messagesなどで標準適用
    • Telegramは選択制で提供、Snapchatは写真・動画にのみ適用中
    • Discordは音声・ビデオ通話にE2EEを標準適用する予定
  • しかし政府、警察、児童保護団体は、E2EEが違法コンテンツの検知や捜査を妨げる要因になると批判している
    • 犯罪者が監視を回避できるため、ユーザー被害や違法コンテンツ拡散のリスクが高まるという主張

TikTokのデータ保護と批判

  • TikTokは標準的な暗号化でメッセージを保護しており、法的要請や有害行為の通報時にのみアクセス可能だと説明した
  • 会社は中国政府との連携疑惑を継続的に否定
    • 米国内事業部は議会命令によりグローバル事業と分離されている
    • 欧州ユーザー保護のためProject Cloverを運営中
  • ByteDanceの所有構造により、依然としてデータアクセスへの懸念が提起されている

外部の反応

  • NSPCCはTikTokの決定を歓迎し、E2EEは児童性的搾取の検知を困難にし、通報件数を減少させると述べた
  • IWFは「安全上の理由からE2EE導入を見送ったことは重要な先例だ」と評価
  • サリー大学のAlan Woodward教授は「中国ではE2EEは大半が禁止されており、TikTokの決定に中国の影響がある可能性がある」と述べた
  • 業界アナリストのMatt Navarraは、TikTokが「プライバシー絶対主義よりも先回りの安全対策を優先する」という立場を掲げており、戦略的には巧みだが論争の余地があると評価した

グローバルな文脈と見通し

  • TikTokの決定は世界的な個人情報保護の流れとは逆方向だと評価されている
    • 他のプラットフォームがE2EEを拡大する中、TikTokは法執行機関との協力維持を選んだ
  • 専門家らは、この決定が政策立案者との関係維持および青少年保護強化の意図と関連している可能性があると分析している
  • E2EEをめぐるプライバシーと安全のバランス論争は今後も続く見通し

1件のコメント

 
GN⁺ 2026-03-05
Hacker Newsの意見
  • このアプリではプライバシーはほとんどないと言うのは問題ないと思う
    TikTokは基本的に公開中心のプラットフォームで、閉じたグループや相互フォローの概念が弱い
    プライバシーが必要ならSignalSnapchatのような別のアプリに移ればいい
    ただ、TikTokは過去には中国政府の監視下にあり、今は米国版の金権的悪夢になっているのだから、彼らに原則的な態度を期待するのは無意味だと思う
    むしろFacebookのように「プライバシー」を掲げながら**CSAM(児童性的虐待コンテンツ)**対策に十分なリソースを投入しないほうが、より問題だと思う

    • TikTokにも1対1の非公開メッセージ機能があり、何億人も使っている
      個人間メッセージを提供するなら、必ず**E2EE(エンドツーエンド暗号化)**を適用すべきだ
      でなければ、いっそ公開フォーラムのように運営するほうがよいと思う
    • TikTokのように巨大なネットワーク効果を持つプラットフォームでは、代替アプリを選ぶ自由は事実上ない
      こうした独占を壊すには、**連合(federation)**を強制する規制が必要だと思う
      そうすればプラットフォームはユーザーロックインではなく、収益化や使い勝手で競争できる
    • 正直な選択肢を提示するなら構わないが、TikTokは「必要なときだけメッセージを読む」といった形でをついている
      実際には政治的な反対意見を抑えたり、統制目的でメッセージを読んでいる
      ほとんどの利用者はこのプライバシーとCSAMの混同を見分けられない
    • TikTokが「私たちはあなたを見張っている」というプラットフォームのままでいるのは構わない
      だが、それを「安全」として包装するのは欺瞞であり、世論を歪める行為だ
    • WhatsAppやFacebookのようなアプリも、E2EEを宣伝目的にしか使っていない場合が多いと思う
      本物のE2EEなら
      1. 鍵ペアをデバイス内で生成し、
      2. サーバーは秘密鍵を絶対に見られず、
      3. クライアントアプリがオープンソースで検証可能であり
      4. ユーザーが自分でビルドして使えるべきだ
        こうした条件がないなら、E2EEと呼ぶべきではない
  • 政府が昔から主張してきた「E2EEは子どもに危険だ」という論理を、企業が焼き直ししているのだと思う

    • 子どもは監視国家を作るうえで、あまりにも効果的な道具になってしまった
      むしろ未成年には「制限付きデバイス」を使わせ、成人になったら解除できるようにするほうがよいと思う
      こうすれば、すべてのSaaSが利用者の身元を直接確認する必要がなくなる
    • すべての児童保護システムがなぜ年齢確認を求めるのか理解できない
      スマートフォン単位で「child」フラグをアプリに渡す形でも十分可能だ
    • 結局のところ企業には自分たちの好きなように方針を決める自由があり、利用者はそれを見て選べばいい
    • こうした論理が通用するのは、隣人たちの価値観とつながっているからだ
      人々の価値そのものを変えようとするのは無駄な努力だ
    • 解決策は簡単だ — 子どものSNSアクセスを止めることが最も確実な方法だ
  • 最近の人たちは年齢確認の問題をあまりに断片的に見ている
    すでにほとんどのサービスは利用者の年齢を知っており、そのデータをもとに不透明なアルゴリズム最適化を行っている
    だから年齢確認だけでなく、データマイニングとアルゴリズム調整そのものを禁止すべきだと思う
    子どものDMよりも、そのデータがどう使われるかのほうが大きな問題だ

    • 「子どものDMは心配するのにデータ収集は気にしない」というのはたわごとだと思う
      両方を心配している人も多い
    • 子どものDMを監視する責任はにある
      親が望むならキーロガーや画面録画を入れられるが、Googleのような企業には絶対に許されない
    • ほとんどの場合、ただ生年月日を1970年に設定するのが慣行のようになっている
    • 「年齢確認を禁止すべきだ」という主張には同意しない
      Verifiable Credentialsのような技術なら、個人情報を渡さずに年齢だけ検証できる
  • DMは現実の私的な会話と同じだ
    したがって、すべてのDM機能にはE2EEが含まれるべきだ
    もしプラットフォームがそれを望まないなら、いっそDM機能をなくして、すべてのメッセージを公開のままにするほうがよいと思う
    親が子どもにDMへのアクセス権を個別に与えられる仕組みが必要だ

    • 「DMをなくして全部公開にしよう」というのはおかしい
      現実でも完全公開と完全非公開のあいだには中間地帯が存在する
    • TikTokは近いうちに、親が子どものDMを監視できる機能を入れるだろうし、親たちはそれを歓迎しそうだ
    • E2EEといっても、実際にはサーバーが鍵を管理したり、政府の要請時に鍵を差し替えられることがある
      つまりE2EEは、単に素朴な中間者を防ぐ程度のものだ
    • 法的にプライバシーを保証する制度があるなら、必ずしもE2EEは必要ないと思う
      この二つの概念は別個の問題
    • 子どもの会話をすべてAIで分析したいと思うほど、監視に執着する親もいる
  • TikTokは政府監視の前哨基地のような存在なので、こういう立場を取っても驚きはない

    • 実際、あらゆるソーシャルメディアは政府監視の道具と見るべきだ
    • 政府はすでにE2EEがあってもデータにアクセスできる
      E2EEがないからといって、その能力が弱まるわけではない
    • 監視はいまやフランチャイズ化されたように感じる
      各地域で情報収集のために運営権を買い取る構造だ
  • 「利用者をより危険にする」という言い方は言い訳だと思う
    実際には政府との摩擦を避けたいだけだ
    金の前では原則など消える

  • 「より安全でなくなる」という言い方は、誰にとって安全でなくなるのかを言っていない
    独裁政府にとっては安全でなくなるだろうが、それは彼らが受け入れるべきことだ

  • クローズドなアプリでE2EEを信頼するのは難しいと思う
    たとえ監査人がlibsignalを正しく接続したと確認しても、内部コードにコンテンツスキャン用フックがあるかもしれない
    Appleが画像スキャン技術をほぼ完成させていたことを見れば、その可能性は十分ある
    それでもE2EEの利点は、サーバーがハッキングされてもデータが無意味な暗号の塊のまま残ることだ

    • E2EEは実装が難しく、利用者のミスで簡単に無力化される
      たとえばSignal利用者の中で、実際に安全番号を比較する人はほとんどいない
      結局のところ問題はセキュリティより使い勝手
    • 人々はE2EEを宗教のように信じる傾向がある
      検証不可能でも「保護 = E2EE」だと思い込む
      私は “I don’t trust Signal” という記事でもこの点を指摘した
    • E2EEを論じるときは、『終端は誰か』を明確にしなければならない
      サーバーが終端なら、それは本当のE2EEではない
      しかも会話内容より
      メタデータ
      のほうがはるかに価値が高い
    • パスワードですら平文保存かもしれない
  • TikTokはもともと公開動画プラットフォームなのに、なぜわざわざ私的な会話に使うのか分からない

    • TikTokは若い世代のSNS
      年配の人にはそれがよく分からない
    • 最初は友だち同士で動画だけをやり取りしていても、自然にチャットへ続く流れが生まれる
      セキュリティが弱いと分かっていても、会話の性質上それほど大きな問題ではない
    • TikTok DMを使ったことがない人の発言に聞こえる
    • ほとんどの10代は暗号化やセキュリティの概念をよく知らない
      単に便利さのためにTikTokを使っている
    • TikTokは単なる動画プラットフォーム以上の存在だ
  • 「物議を醸すプライバシー機能」だというが、誰が物議を醸すと言っているのか気になる
    NSAやGCHQの基準なのか?

    • 記事によれば、NSPCCInternet Watch Foundationのような児童保護団体が反対している
      Meta内部でもMonika BickertAntigone Davisが、E2EEは子どもに危険だと言及している
      関連内容は Reutersの記事 でも確認できる