1 ポイント 投稿者 GN⁺ 2026-02-04 | 1件のコメント | WhatsAppで共有
  • フランスのサイバー犯罪捜査部がXのパリ事務所を家宅捜索し、違法なデータ抽出と児童ポルノ所持への共謀の疑いを調査中
  • イーロン・マスクと前CEOのリンダ・ヤッカリーノは4月の公聴会への出席を通知されており、Xは今回の調査を「政治的攻撃」だと反論
  • 英国の情報コミッショナー・オフィス(ICO)は、AIツールGrok性的な画像・動画を生成し得る可能性を理由に別途調査を開始
  • Ofcomは、Xプラットフォーム上での性的ディープフェイク流通問題を緊急事案として扱っているが、チャットボットに関する権限が不十分だと説明
  • 欧州と英国で同時に調査が進むことで、XとGrokのデータ処理およびコンテンツ管理責任が国際的に拡大している状況

フランスによるX事務所の家宅捜索

  • フランスパリ検察庁サイバー犯罪部がX事務所を家宅捜索
    • 容疑には違法なデータ抽出児童ポルノ所持への共謀性的ディープフェイクによる肖像権侵害などが含まれる
    • 捜査は2025年1月のXの推薦アルゴリズムによるコンテンツ調査として始まり、同年7月にはAIチャットボットGrokにまで拡大
  • 検察はXが複数の法律に違反したかどうかを調べており、マスク氏とヤッカリーノ氏には4月の公聴会への出席命令が出された
  • Xは声明で、「表現の自由を脅かす乱用行為」だとして容疑を否認
    • マスク氏はX上で「政治的攻撃」だと投稿し、ヤッカリーノ氏は「米国人に対する政治的報復」だと主張

英国のGrok関連調査

  • 英国Ofcomは、Grokが生成した性的ディープフェイク画像がX上で拡散された件を引き続き調査中
    • 被害者や政治家、オンライン安全団体は1月に強く批判していた
    • Xはその後、当該行為を遮断し、Ofcomはこれを「緊急事案」として扱っている
  • しかしOfcomは、チャットボットに関連する違法画像生成を直接調査する権限が不足していると明らかにした
  • これを受け、ICOがOfcomと協力してGrokの個人情報処理の方法を調査することになった
    • ICOのウィリアム・マルコム氏は、「同意なく個人データを利用して性的画像が生成された点が深刻な問題だ」と言及
  • 1月末には欧州委員会も、Grokの親会社xAIに対する別個の調査を発表
    • 委員会の報道官は、フランス当局とX事務所の捜索に関して協議中だと明らかにした

パーヴェル・ドゥーロフの批判

  • Telegram創業者パーヴェル・ドゥーロフはフランス当局を批判し、「自由な国ではない」と主張
    • 彼は「フランスは、自由を認めるすべてのソーシャルネットワークを刑事的に弾圧する唯一の国だ」と投稿
  • ドゥーロフ氏は2024年8月、プラットフォーム内の犯罪活動を放置した疑いでフランスで逮捕され、その後、運営方式を一部修正したのち2025年3月に出国許可を得た
    • 変更内容には、法的要請があった場合のユーザーデータ提供が含まれる

1件のコメント

 
GN⁺ 2026-02-04
Hacker Newsの意見
  • 物理的な家宅捜索は無意味だと言う人たちに言いたいことがある
    法をよく守る普通の会社を前提にすればそうかもしれないが、怪しいことをし始めた瞬間に、あらゆる良い慣行は消え去る
    メールを暗号のように書いたり削除したり、記録を隠そうとするが、結局痕跡は残る
    こういう理由で、複雑な活動を追跡するには実際の家宅捜索が必要になる

    • これは単なる基本的な捜査手続き
      犯罪の疑いがあるなら証拠を確保しなければならない。捜索なしで起訴するのは筋が通らない
    • 単に「AIヌード」が理由ならやりすぎだと思う
      AIが作った画像は偽のデジタル絵にすぎないのに、まるで国家レベルの怒りを煽っているように見える
      10代の少年の玩具レベルで、これで国家的な怒りのショーをするのは滑稽だ
    • 実際、この捜索は会社を処罰するための手段にすぎず、Grok関連のデータを得ようという意図はなさそうだ
  • どんなプラットフォームもCSAM(児童性的虐待コンテンツ)を許してはならない
    ところがXは安全装置や
    コンテンツフィルタリング
    に金をかけていない。これは検閲の問題ではなく、責任逃れの問題だ

    • 同意しない。道具を作った人ではなくユーザーを処罰すべきだ
      道具の提供者に責任を問い始めれば、結局は自由の縮小につながる
    • 昔のTwitterやBlueSky、Mastodonにもそういうコンテンツは多かった。今さら驚く話ではない
    • 90年代にもインターネット上でCSAMは広がっていて、その時も社会は衝撃を受けていた
      なのに、なぜ今になって急にこんなに強硬なのか疑問だ
      もしかするとEpstein事件以降、上流階級に関する疑惑を覆い隠すための「見せかけの取り締まり」ではないかと思う
    • 昔はCSAMが実在する子どもを意味していたが、今ではAI生成画像まで含まれる
      だとしたら、暴力的なAI画像も禁止すべきなのか? 映画並みの残虐さは許されるのか?
      どこまでを「許容不可」と見るのか曖昧だ
    • Grokが実際にCSAMを生成したという証拠は見たことがない
      水着の合成くらいは見たが、法的定義上のCSAMではない
  • 「組織的データ詐欺」の容疑があるらしいが、これが広く適用されるならソーシャルメディア業界全体に影響が大きそうだ

    • これは「人を決めてから罪を探す」タイプの捜査に見える
      EUが中国やロシアのように外国ソーシャルメディアの統制を強めようとしている動きのようだ
      アメリカが表現規制をこれ以上受け入れないなら、EUは独自の代替案を押し出してくるだろう
  • HNらしく、法の支配とCSAM問題をめぐって皆が熱い議論をしている

  • X/Grokの所有者の兄弟が児童買春の前科者と関わっていたという報道がある
    Grokが児童ポルノ生成器と呼ばれるほどなのに、いまだに「陰謀論」だとして無視する人もいる

  • フランス検察がXを複数の法違反容疑で捜査中だというが、これは単なる政治的圧力に見える
    現地スタッフをいじめる以外に実益はない

    • しかし記録の押収は通常の捜査手続きでもある
      フランスの司法システムは合理的なので、特別な証拠がない限り正当な捜査と見る
    • 会社が実際にCSAMとディープフェイクポルノを流通させて利益を得ていた証拠がある
      故意があったか確認するには家宅捜索が必要だ
      関連する法的議論はこの論文でも扱われている
    • それでもこれは政治的圧力だ。EUは異論を許容しない
    • OpenAIやGoogleも同様の問題を抱えている
      いくら金を注ぎ込んでもAIの悪用を完全に防ぐのは難しい
  • フランスのオフィスを急襲して何を見つけようというのか気になる。「GrokのCSAM計画書」でもあるのか?

    • 驚くだろうが、人は本当にメールに犯罪計画を書き残す
      例としてFacebookの内部文書がある
    • Grokが問題のある画像を生成すると知りながら放置したのか、その内部意思決定の記録を探しているのだと思う
    • フランス支社から本社に法違反の可能性を警告したメールがあるかもしれない
    • WaPoの記事によれば、xAIは意図的に性的コンテンツ制限を緩和した
      スタッフが危険なコンテンツでモデルを訓練したという証言もある
      捜査チームはこうした内部コミュニケーション無視された警告を探しているようだ
    • Epsteinファイル公開後、「犯罪計画メール」が実際に存在する可能性は高まったと思う
  • 今回の件はAI検閲擁護論者に大義名分を与えた格好だ
    これからはAI企業がユーザーではなくモデルそのものの責任を負う時代になる
    結局、クローズドモデル本人確認が強化されそうだ

    • 他のプラットフォームと違いはない。ただ今回は「配布」ではなく「生成」だという点が違う
    • 問題は生成可能性ではなく、それを知りながら宣伝したこと
      実際に認識していたかどうかが法的責任の核心だ
    • Xが違法コンテンツの流通を防ぐために十分な措置を講じたのか疑わしい
      AI生成機能を追加したことで、むしろ違法コンテンツの生産を促進した格好だ
    • 検閲ではなく、非アラインメントなプラットフォームへの制裁だと見る
      EUはX買収以降、このプラットフォームを目の上のたんこぶとみなしてきた
    • 「検閲」ではなく、単なる運営責任の問題だ
      フィルタリングなしで放置していたなら、それは明白な過失だ
  • こうした論争はSpaceX IPOにも悪影響を与えそうだ

    • xAI捜査がSpaceXとの契約にも影響すれば、利益相反の問題で訴訟に発展する可能性が高い
  • 「ロシア人がフランスの刑務所で自由を論じる」というのは皮肉だ
    フランスはそういう犯罪者を歓迎しない、というメッセージに聞こえる