- 内部告発者らは、MetaとTikTokがアルゴリズムは怒りを引き起こすほどエンゲージメントが高まるという社内研究結果を知りながら、より多くの有害コンテンツをユーザーフィードに露出させたと暴露した
- Metaのエンジニアは株価下落を理由に「境界線上のコンテンツ」の露出を増やすよう指示されたと明かし、TikTokの社員は政治家関連の案件が子どもの被害より優先処理されたことを示す社内ダッシュボードを公開した
- MetaのReelsはTikTokと競争するため十分な安全対策なしに公開され、社内研究ではいじめ・ヘイトスピーチ・暴力的コメントの比率がInstagramのメインフィードより高かったことが確認された
- TikTokの社内安全チームの社員は、政治的関係を維持するため子どもの安全が後回しにされたと証言し、「保護者はアプリを削除すべきだ」と警告した
- 両社はいずれも意図的な有害コンテンツ増幅を否定したが、社内文書と証言はエンゲージメント中心のアルゴリズムがユーザーの安全より収益を優先していたという構造的問題を浮き彫りにした
内部告発の概要
- 12人以上の内部告発者と関係者が、暴力、性的搾取、テロ関連コンテンツなどの安全問題を無視したままユーザーエンゲージメント競争を繰り広げていたと証言
- Metaのエンジニアは、**女性蔑視・陰謀論などの「境界線上のコンテンツ」**をより多く露出するよう経営陣から指示されたと明かした
- TikTokの社員は、政治家関連の通報が子どもの被害より優先処理された事例をBBCに提示した
- TikTok内部では、政治家との関係維持が規制や禁止のリスクを避ける理由として言及されていた
Metaの社内研究とReelsの問題
- Metaの研究者Matt Motylは、**Reelsの公開(2020年)**当時、安全対策が不十分だったと明かした
- 社内研究によると、ReelsのコメントはInstagramのメインフィードよりいじめ・ヘイトスピーチ・暴力助長の比率がそれぞれ75%、19%、7%高い
- 会社はReelsの成長に700人を投入した一方、子どもの保護・選挙の完全性を担当するチームの増員は拒否された
- 社内文書は、アルゴリズムがユーザーの福利より収益最大化を優先していると指摘
- 「Facebookはユーザーを『ファストフード』のように消費させることはできるが、長くは続かない」という表現も含まれていた
TikTok社内安全チームの証言
- BBCは2025年に数か月にわたり、**TikTokの信頼・安全チーム社員「Nick」**と接触
- 彼は、AI導入と人員削減により有害コンテンツへの対応が弱まったと明かした
- テロ、性暴力、虐待、人身売買関連資料の増加を確認したと証言した
- 社内ダッシュボードでは、政治家を風刺する投稿が未成年者への性的脅迫被害事例より優先して審査されたケースが示された
- イラクの16歳被害者の事例などで、緊急度が低く分類されていた事実も確認された
- Nickは「会社は子どもの安全より政治的関係を重視している」と述べ、保護者に「TikTokを削除しろ」と助言した
- TikTokは「政治コンテンツが子どもの安全より優先されることはない」として、主張は歪曲されていると反論
- 青少年アカウントには50以上の基本安全設定が適用されると説明した
アルゴリズム競争とMetaの対応
- 2020年の新型コロナウイルス期にTikTokが急成長したことに対応し、MetaはReelsを緊急投入
- Motylは「ユーザー保護よりスピードが優先された」と言及
- Reelsチームは、有害コンテンツの方が高いエンゲージメントを誘発するため、安全機能の導入に消極的だったという
- Brandon Silverman(Crowdtangle創業者)は、当時Mark Zuckerbergが競争に極度に敏感だったと証言
- Reels拡大には700人が投入され、安全チームは人員確保に苦労した
- 元Metaエンジニアの「Tim」は、TikTokとの競争で「境界線上のコンテンツ」への制限が緩和されたと明かした
- 「株価下落と売上圧力の中で、短期収益を確保するため緩和の決定が下された」と述べた
アルゴリズムの仕組みと社会的影響
- 社内文書は、怒りや道徳的刺激を与えるコンテンツが高いエンゲージメントを生み、アルゴリズムがそれを好むと明記
- 「利用者は怒りを感じるほど、より多くのコンテンツを消費する」という構造
- 英国の警察のテロ専門家は最近、反ユダヤ主義・人種差別・極右暴力投稿の「正常化」現象を目撃したと報告
- ある10代の利用者は、14歳からアルゴリズムによって「過激化」したと証言し、怒りと嫌悪感が強化されたと説明した
企業の公式見解
- Meta: 「金銭的利益のために有害コンテンツを増幅しているという主張は事実ではない」
- 過去10年間に安全・セキュリティへ大規模投資を行い、青少年保護機能を導入したと強調
- TikTok: 「主張は捏造されたものだ」として、有害コンテンツが露出しないよう技術投資を続けていると説明
- 「何百万人もの人が新たな関心を見つけ、コミュニティを形成できるよう支援している」と付け加えた
1件のコメント
Hacker Newsの意見
この問題はここ5年で、すでに常識レベルになっている気がする
でも本当の問いは「で、私たちは何をすべきなのか?」だ
自分はオンラインで怒りに時間を無駄にしないよう努めているが、これは個人で背負うには大きすぎる社会的病理だ
MetaやTikTokが社会に対して純損なら、存在する自然権などない
問題の根は「エンゲージメント誘導」があまりに儲かることにある。金銭的インセンティブが消えない限り、問題も消えない
NPRだけを聞いている時より多くの情報を得ている気もするが、作り込まれたコンテンツ(編集、音楽、解説など)は避けている
自分は実際に起きたことや、誰かの発言に対する感情的反応だけを受け取りたい
「ニュースとしてのコンテンツ」には現実性があるべきだ
ミレニアル世代よりGen Zがお酒を飲まない理由を見ると、その中に解決策があるかもしれない
「有害コンテンツ」という言葉は、結局のところ政府や特定の国家が嫌うものを意味していると思う
結局また別の形の検閲要求に聞こえる
もしある集団がこうした暴力に反対しているなら、それはむしろ良いことではないか?
通報しても「規定違反なし」という返答しか来ない
こういうプラットフォームがいまだにこのやり方で運営されていることにうんざりする
もう10年以上も社会的被害が知られているのに、何も起きていない
FacebookとTikTokは事実上デジタルドラッグだ。それも社会的共感能力の欠けた人たちが設計したものだ
こういう結果は驚きではない。たぶん大半の人もそうだろう
それでも証拠が明確に示されるのは良いことだ
こういう現象は避けられないのだろうか?
クリックや再生数、ユーザーエンゲージメントを生み出す以上、あるプラットフォームがそうすれば他も追随せざるを得ない
たとえばマクドナルドの店員が客を侮辱すれば「エンゲージメント」は増えるだろうが、市場シェアは落ちるはずだ
彼らがそう振る舞ったのは当然だ
法的に許されていて、しかも利益が出る限り、そうし続けるだろう
これは少なくとも2012年から繰り返されてきた話だ
Max Fisherの本 The Chaos Machine によく整理されている
FacebookもYouTubeも批判が出ると「対策を取った」と言うが、実際には回避・先延ばし・矮小化・否認の繰り返しだ
有害アルゴリズムを監視し、訴訟まで進める機関があるのか気になる
Reset.tech はこの分野で良い仕事をしているが、ほかにもあるのか、そして誰が資金を出しているのか知りたい
200億ドル稼いで罰金が2億ドルなら、彼らはユーザーのメンタルヘルスなどまったく気にしないだろう
大衆がいまだに扇情的なコンテンツに反応する限り、プラットフォームがそれを利用しない理由はない
ほとんどの投稿は結局クリック誘導の釣りにすぎない