1 ポイント 投稿者 GN⁺ 2025-08-27 | 1件のコメント | WhatsAppで共有
  • ウィル・スミスのコンサート映像はAIで生成された偽の観客だという疑惑を招いたが、実際には実在するファンが撮影した映像に基づいていた
  • 問題の映像は公演シーンと実際のフェスティバル観客写真を混ぜて作られており、一部の観客ショットは画像から動画へのAIモデルでアニメーション化されていた
  • しかしYouTube Shortsの後処理実験(アンブラー・デノイズ)が加わり、観客の顔が奇妙に変形し、看板も歪んでAI改変のように見えた
  • Instagram・Facebookに投稿された同じ映像は歪みが少なく、YouTubeの自動補正が事態を悪化させた
  • 結論として観客は実在したが、アーティスト側のAI補正とYouTubeフィルターが重なり、本物・偽物論争を呼んだ事例である

論争の始まり

  • 問題の1分間の映像が公開されると、Rolling Stone、NME、Mashableなど主要メディアがAI改変疑惑を報じた
  • 映像内の観客の顔にはAI特有の歪み、多指、奇怪な標識などが見られた
  • 特に「From West Philly to West Swizzy」という看板が誤認識され、さらに大きな論争を招いた

実際の公演映像の確認

  • 映像はフランス・オランジュのPositiv Festivalをはじめ、スイスのGurtenfestival・Paléo FestivalベルギーのRonquieres Festivalの観客シーンを交差編集したものだった
  • 関連する公演写真とファンが撮影した映像から同一人物と看板が確認され、実在の観客であることが証明された
  • がん闘病中のカップルのエピソードを記した看板も存在し、Will SmithのInstagramには複数の写真と動画が残っている

2段階のAI改変

  1. ウィル・スミスのチームが**公式公演写真を活用し、AI画像から動画へのモデル(Runway、Veo 3など)**で短いクリップを生成
  2. YouTube Shortsの自動後処理(アンブラー・デノイズ)が重なり、映像がさらにぼやけて不自然に変形した

YouTube Shortsの実験

  • Instagram・Facebookへの投稿版は比較的鮮明だが、YouTubeでは**「AI向上技術実験」が適用され、全体的にぐにゃりと歪んだ画面効果**が現れた
  • YouTubeは「従来型の機械学習ベースの鮮明化技術」だと説明したが、事前告知なしの適用が論争を拡大させた
  • その後、クリエイターの反発を受けてオプトアウト機能を追加すると発表した

結論

  • 多くのYouTube、Reddit、Xユーザーは「偽のファンを生成AIで作った映像」だと信じている
  • 実際には本物の観客が登場していたが、ウィル・スミスのチームによる画像から動画への変換とYouTubeの後処理を経て、人工的な印象が極大化された
  • 画像から動画へのモデルで会場写真に短いアニメーション効果を与えることと、完全に架空の群衆を生成することの倫理的な区別の必要性が提起されている
  • 結論として、実際の公演がAIツールによって『より本物らしくなく』見える現象が今回の事例で明らかになった

1件のコメント

 
GN⁺ 2025-08-27
Hacker News のコメント
  • AIでアップスケーリングされた映像は、新しいテレビのフレーム補間を切る前のあの不自然さと同じくらい目障りに感じる。こういう間違った人工的なシャープさを、いったい誰が格好いいと思うのか不思議だ。最近 David Bowie & Nine Inch Nails の公演映像のAIアップスケーリング版を見たが、特に2分あたりで現実感がずれたように感じて、心理的にかなり不安になった。元の映像は低解像度だが、むしろその雰囲気や意図された質感をずっとよく保っていると思う。今は優れたカメラやレンズがあるのだから、AIで無理やり画質を引き上げる必要はない
    • 驚くべきことに、人々はこういう画質をむしろ好んでいるようだ。昨日パートナーが新しいスマートフォンを選んでいて、カメラ画質が重要だと言い、ズームしても鮮明だと喜んでいた。だが拡大後に少し遅れて人工的に再構成された、まるで昔のコンソールゲームエミュレータのアップスケールフィルタのような歪んだ画像を見ながら、自分が本当に大切に思っている人が、自然でリアルな写真よりも、顔だけがふんわり補正されて背景に不自然な偽ボケがかかったセルフィーを好むのだと思うと、少し切ない気分になった
    • この画像は本当に笑える
    • 昔、親の新しいテレビで好きなドラマを見たとき、何かがおかしくて、低予算で俳優の演技まで不自然になり、台詞まで安っぽく感じられて、理由を考え込んだことがあった。時がたって、結局それがそのテレビのオートスムージングのせいだと分かった。いわゆる Soap Opera Effect という現象だ
    • 消費者が望んでいない技術を押し付け続けるのは、株価維持の圧力 → 市場シェアを伸ばせという経営の圧力 → PMに新機能追加を求める圧力 → 開発者は新技術を試したがる → その結果として、誰も望んでいないAIチャットボット、AI要約、車のタッチスクリーン、AIアップスケーリングのようなものが生まれる
    • ほとんどの人はこうした違いをあまり認識できない。自宅にテレビはないが、友人の家に行くとすぐ Soap Opera Effect に気づく。これまで2回ともその機能を切ってみるよう勧め、その後は友人たちも同意して二度と戻さなかった。ただ実際のところ、たいていは私を信じて流しただけで、本当に違いを理解していたかは確信がない。もしこの機能を無効にしたければ、「TVブランド名 soap opera effect」で検索すれば設定方法が出てくる。メーカーごとに変な名称を使っていることが多いので注意が必要だ。2分6秒あたりで特に顔が変化するが、元映像ではその区間はかなりぼやけている。AI版はカメラの効果をまったく理解していない。AIアップスケール版元映像 を比べると本当によく分かる。両方のリンクを載せてくれたおかげで比較しやすかった
  • コメントの多くは YouTube の話をしているが、記事によればAI処理の大半は Will のチームが静止画を動画に変換するために使ったものだ。実際には YouTube は最終結果を少しだけぼやけにくくしている程度で、本当に不自然なAIアーティファクトのほとんどは映像制作の段階で生じている。これは Shorts にのみ適用される。比較動画参照
    • その動画の中では違いがよく分からない
  • Coldplay がこの夏にこういう技術を使っていたらどうなっていただろう。真面目な話、AIをあらゆる場所に押し込む流れはかなり不安だ。以前は Spotify Discover Weekly で新しい音楽に出会うのが本当に楽しかったのに、今ではAIが作った曲が多すぎて没入感が壊される
    • Spotify をやめて地元のレコード店でCDを買い、USBのCDリーダーで自分の音楽コレクションを手で築きたくなる。最新曲ばかり追い、「すべての曲がある」ことを求め続けるうちに、本当に人間が音楽を分かち合う感情的な要素を失ってしまったように感じる
    • それはあり得る。音楽レコメンドで偶然宝石のような曲を見つける喜びが大事なのに、AI生成曲が混ざるとその魔法が消えてしまうと思う。Spotify が公式にAI曲ばかり勧めると表明したことはないが、この1年でストリーミング全体にAI音楽が爆発的に増えた。Spotify のアルゴリズムも人間の曲とAIの曲を区別せず勧めてくることが多い(特にAIが真似しやすいアンビエント、lo-fi、EDM、無難なポップではなおさらだ)。結局、人間のキュレーションや芸術的なアプローチが必要な領域にAIが入り込むことに、多くの人が不快感を覚えている。サービスごとにAI音楽をフィルタしたり、人間の曲だけを勧めてもらう方法があるか知りたければ調べることもできる
  • ここで本当の核心的な問題は <i>同意</i> だ。会場に入れば写真や動画撮影に同意することになるのは誰でも分かっているとしても、アーティストのチームがAIで自分の顔を偽の映像に変換するところまで、明確に同意していた人が本当にいたのか疑問だ。国によってこういうことが合法なのかも本当に気になる
    • おそらくチケット購入ページの利用規約や、会場入口の案内などに、「入場により撮影に同意する」といった文言があった可能性が高い。倫理的には微妙だが、法的にはかなりうまくカバーされているケースだと思う
  • もし自分がマーケターなら、本物の画像をむしろAIが作ったように見せて無料のバイラル効果を狙う。ミスや合成疑惑ほど注目を集めるものはない。実際に偽物でないなら、アーティストやチームに損はまったくない。以前、大手ブランドのソーシャルメディアマネージャーと話したことがあるが、わざと誤字のある投稿をしてコメントや反応を増やすことがあると言っていた
    • こういうのは ragebait と呼ばれる。マーケティング業界ではすでによく通用する手法だ
    • 新しい Naked Gun 映画がポスターでわざと指を多く描いたのもその一例だ
  • 自分のハードウェアやソフトウェア、あるいは目がおかしいのか、YouTube と Instagram を並べて比べても大きな違いが分からない。もし目の問題でないなら、何を確認すべきか、モニターをアップグレードすべきなのか知りたい。GPUは悪くないが、HDMI-VGA 変換器も使っている。ただ写真は本当に見ていられないほど変だった。動画にもおそらく同程度に人工的に歪んだ画面が多いのだと思う
    • 動画の違いはもっと微妙なところにある。すべてのフレームではっきり見えるわけではなく、背景が突然ピントが合ったりぼけたりしたり、人物の髪や首に変な質感が出たり、顔の輪郭だけがくっきりして肌は不自然なほど滑らかに表現されたりすることが非常に多い。まるで Max Headroom のような感じだ
  • 自分の周りで本当にこういう機能を望んでいる人は一人もいない。なぜこんな複雑で不要なものを次々導入するのか本当に不思議だ
    • ある国々が実戦で軍備を試しノウハウを蓄積するように、Google も将来本格活用する日のために組織能力を鍛えているのではないか、と想像してしまう
    • 複雑さは必要なものにもあるが、利益が出なければ推進される理由はない
  • Youtube PM: 「AIが作った映像と本物の映像の区別をもっと難しくして、ユーザーが自然だと感じるようにしよう!」
    • こうした計画的な悪意すら、実際にはあまりないと思う。本当にAIに熱狂している人たちは、あらゆる製品にAIを入れたがり、上から「AIはすごいから入れろ」と言われれば何にでも振りかける。会議も「ユーザーの問題Xを解決しよう」ではなく、「AIで製品のどこを変えられるか」に焦点が移ってしまう
    • 悪意よりも、ゆがんだインセンティブのほうが現実的だ。誰かのKPIがAI機能の導入になっていて、そのせいで YouTube の昔の sharpen + Denoise フィルタの場所に「AI enhancement」が入ることになる
    • 実際に YouTube のAI変換の説明ガイド もある
    • こうしたアプローチは、かえって本物のニュース映像までAI合成だと誤解され、信頼を損なうおそれがある。むしろ人々はもっと警戒し、信じなくなる
    • これからの世代は、すでに既存世代とはまったく異なるメディア環境で育つことになる
  • 「AIを有用にしてみよう」という試みの一つであるこの機能が、いったい誰の発案なのか不思議だ。どうせHDの元映像があるのなら、わざわざコストをかけてアップスケーリングを提供する必要はないと思う。仮に低画質映像にだけ適用するとしても、結局は現実感の歪みとしていっそう深刻に感じられる
    • Google にとって現実感は重要ではない。広告とエンゲージメントだけを気にしている
  • 「AI glitch」と書かれたTシャツを売れば、写真ごとにこうした効果が出ることで本物と偽物の区別がつかなくなるようにできる
    • 時間がたてば、こういうTシャツは6本指の小道具(生成AIの代表的な問題)や、5眼鏡マスク(顔認識回避)みたいに、一時的に流行って消えるアイテムになるだろう
    • そういうTシャツはすでに存在していて、ChatGPT が出力した文句を何の検証もなくそのまま印刷していることが多い