3 ポイント 投稿者 GN⁺ 2025-09-01 | 3件のコメント | WhatsAppで共有
  • Googleは検索結果に AI生成要約(AI Overviews) を導入しており、これはしばしばサイトのコンテンツを取り込んで トラフィックを奪う効果 を生んでいる
  • サイト運営者は スニペットのブロック(max-snippet:0, nosnippet)や 部分的ブロック(data-nosnippet)といった極端な選択肢しかなく、事実上 出口のないジレンマ に陥っている
  • ユーザー側では Search Labs設定の無効化、URLパラメータ、拡張機能 など、限定的で不完全な回避策しか存在しない
  • EUと英国の規制当局 は現在、Google AI Overviewsの反競争的な性質とパブリッシャーへの被害を調査しており、トラフィック共有・公正なオプトアウト といった規制を検討している
  • 当面、パブリッシャーが取れる唯一の実質的対応は max-snippet:0 だが、これはクリック率低下という致命的な欠点があり、Googleのダークパターン的設計 だという批判が出ている

Google AI要約(AI Overviews)の問題

  • 最近Googleは検索結果にAIが自動生成した AI要約(SGE: Search Generative Experience) を導入した
  • この機能はWebサイト本文の内容を分析し、簡潔に要約して直接表示することで、ユーザー体験の向上を目指している
  • しかしその結果、多くのWebサイトオーナーは元サイトを訪問されることなく 要約コンテンツだけが消費される問題 に直面している
  • これは結果としてWebサイトの オーガニックトラフィック(organic traffic)の減少 につながっている

Google AI要約の影響

  • AI要約はWebサイト所有者の同意なく コンテンツを自動要約 して検索上部に表示する
  • ユーザーは要約だけを見て元サイトをクリックしない傾向が強くなる
  • これにより 従来のSEO戦略 の効果が弱まり、サイト運営者に不利に働く

Webマスターの対応方法

  • 1. max-snippet:0
    • <meta name="robots" content="max-snippet:0">
    • すべてのスニペットとAI要約をブロックし、検索結果には タイトル+URLのみ表示 される
      • これは クリック率(CTR) を大きく下げる可能性があるという欠点がある
    • 現時点では最も効果的な方法だが、完全な解決策 ではない
  • 2. nosnippet
    • <meta name="robots" content="nosnippet">
    • max-snippet:0と同じ効果で、検索結果から 説明や要約 が完全に削除される
      • その結果、検索一覧が単調になって魅力が落ちる可能性がある
    • AI要約は防げるが、検索可視性 の低下につながる可能性がある
  • 3. data-nosnippet
    • <span data-nosnippet>…</span>
    • 特定のコンテンツを 選択的に除外 できる方法
      • ただしGoogleは他のテキストを要約に使えるため、完全な制御 は不可能
    • HTML要素(span, div, section)に適用可能
  • 4. ユーザー側の代替策(個人アカウントにのみ影響)
    • Search Labsオプトアウト: ログイン中のユーザーは “AI Overviews and more” を無効化できる
      • これはユーザーアカウントにのみ適用され、Webサイトが他者にどう表示されるかには影響しない
    • URL修飾子: 検索クエリに &udm=14, -AR, -noai を追加
    • ブラウザ拡張: Bye Bye Google AI のようなツールを利用可能
      • Googleのアップデート時に動作しなくなる可能性がある
    • Redditハック: 卑語を追加してAI要約を回避する方法が提案されている
      • 実用的ではない一時しのぎ
    • iOSでは Googleアプリ でGemini表示をオフにするか、Webタブを使う、またはSafari、DuckDuckGoのような代替ブラウザを利用できる
  • 5. 規制面での希望: EUと英国の調査
    • EU
      • Independent Publishers Alliance、Movement for an Open Web、Foxglove LegalなどがEU執行委員会に 反独占提訴
      • AI Overviewsがコンテンツの悪用、トラフィック流出、公正なオプトアウト不在を引き起こしていると主張
    • 英国
      • 競争・市場庁(CMA) がAI要約の 競争抑制 と出版社被害の有無を調査中
      • 義務的な出典表示、トラフィック共有、Google自身の優遇制限などを検討

問題の本質

  • パブリッシャーのジレンマ: スニペットをブロックしなければAIがコンテンツを抽出して トラフィック損失 が発生し、ブロックすれば 検索可視性 が低下する
  • ユーザー制御の不足: 代替策は不便で不完全であり、一貫性もない
  • ダークパターン批判: Googleの構造的設計は、パブリッシャーに重要なものを諦めさせる 操作的デザイン と見なされる
    • これはパブリッシャーに不利な選択を強いる典型的なダークパターンである

結論

  • 規制当局が変化を強制するまで、現在パブリッシャーの唯一の選択肢は max-snippet:0 だが、これは深刻な露出損失を伴う
    • Webサイト所有者は AI要約のブロック可視性の損失 の間で不公平な選択を迫られる
  • Googleの方針は 出口のない強制的選択構造、すなわち典型的な ダークパターン である
  • EUと英国の規制の 今後の判断 が状況を変え得る唯一の希望だが、即効性のある解決策ではない

3件のコメント

 
laeyoung 2025-09-01

関連しては、SEO時代の終焉? AIエージェント向けマーケティング最適化の始まり もあわせて読むとよいです。

SEO関連のredditを見ると、Googleでの露出量はそのままなのに、Zero click のせいで流入が大きく減ってしまい、不安を訴える投稿がかなり多く上がっているようです。

 
crawler 2025-09-01

> Would you consider this a fair feature—or a classic example of dark pattern engineering? Let us know in the comments.

本文でコメントを残してほしいと書いてありますが、サイトにはコメント機能がないように見えます。
AIを防ごうとする文章をAIで書いたのだとしたら、なんとも皮肉な記事です。

 
GN⁺ 2025-09-01
Hacker Newsのコメント
  • ここ数十年であらゆる分野に広がっている「ポータル/ブローカー」現象だと感じる。消費者と生産者の間に第三者レイヤーが入り、双方にとって便利になった一方で、今ではこのレイヤーに依存せざるを得なくなっている。Amazonで注文するときも、もはや出品者と直接やり取りせず、料理の注文でも店に直接支払わない。Webで情報を探すときも、個々の作者の文体、ナビゲーション、広告などを相手にしなくなった。コンテンツ所有者の立場から見ると、この構造はページ訪問の減少によって広告収入に打撃を与えるが、Amazonやフードデリバリーアプリと違って、Google要約による広告損失には補償がない。オンラインコンテンツの大半は広告で成り立っており、Googleにとっても広告収入は生命線だが、それでも将来のためにこうした進化をやむなく押し進めている。Googleは将来における自らの地位を維持することだけに集中しているように見える

    • 実際、この変化が双方に利益をもたらすという表現は印象的だ。移行の過程でどちらか一方が被害を受けるのは確かだが、最終的には消費者とプラットフォームが得る利益のほうが大きいと思う
  • 自分のソフトウェア製品サイトの著作権付き資料を、Googleや他のAIが許可もなくスクレイピングして再加工しているのが不満だ。だが、もしブロックすると、自分のコンテンツが彼らのAI要約で言及される可能性はほとんどなくなってしまう

    • こういう形でブロックすると、自社製品や会社に関する結果で、AI要約が2位の情報ではない別の情報源を参照することになり、実際にはもっと悪いことがある。たとえば「PayPalで出金する方法」の検索で、2番手のサイトが「PayPal sucks」のような否定的なドメインだった場合、公式サイトが要約から除外されると、かえって厄介になる。結論として、パブリッシャーはそのまま許可したほうがよい。トラフィック減少が心配なら、要約に表示される「source」リンクは他のどの結果よりも先に見える。誤情報が心配なら、正確性レポートやコンテンツ修正で対処できる。またGoogleはAI要約とスニペットを別々にopt-outできるようにすべきで、AI要約を懸念するならスニペットも同様に気にすべき事項だ
    • 今後、Googleが自分の競合より好意的に描写してほしければ金を払えとか、不当に生成された虚偽情報を消したければ金を払えと連絡してくるのではないかという不安がある
    • 何かを直接販売しているWebサイトなら、AI要約に載ることはむしろ望ましいと思う
  • このAI要約機能がGoogleの将来収益を食い潰さないというのが理解できない。Googleは広告を通じてサイトに送客することで稼いでいるのに、この種の要約サービスでWebサイト自体を不要にしつつある。だとしたら、誰が訪問者のいないサイトを作るだろうか

    • AI要約に製品・サービス広告を挿入する技術も、Googleはすでに持っている。実例として「休暇」を検索した際に、ホテルと航空会社がそれぞれ言及された例が研究で説明されていた。この論文へのリンクはこちら
    • 収益の99%は「buy macbook」や「book trip to dc」のような、購買意図が明確な検索語に集中している。情報目的の検索語では広告収入はほとんどない
    • 実際に収益を生むクエリはごく少数で、大半の検索語にはそもそも広告入札が存在しないことからも確認できる
    • 実のところ、GoogleはChatGPTのような技術に自らの地位を奪われることをより恐れている。だからこそ、ユーザーが欲しい情報を即座に提供することが地位維持の最善策なのだ。私見では、LLMは不完全ではあるが、曖昧な質問や情報統合、翻訳などでは検索エンジンよりはるかに優れている。特定のページを探すより情報そのものを得たいとき、LLMのほうが理想形に近い。今後10年以内に検索エンジンが消えても不思議ではないと思う
    • おそらくGoogleもこうした変化を無理やり導入したのだろう。LLMサービスに徐々に侵食されている現実があるからだ。GoogleがAI要約を広告より上に置いているのを見ると、どれほど切迫しているかが伝わってくる
  • 個人サイトではApache設定でインデックス、スニペット、翻訳、画像インデックスをすべてブロックするようにしている。それにもかかわらず、Internet Archiveだけは無視してクロールしていき、何度削除を依頼しても絶対に応じない。今はAnubisで追加のスクレイピングも防いでいる。(このサイトは2000年に始めた公開日記なので、検索されないでほしいのだ)

    • インターネットに公開しておいてバックアップされないことを望むのは理解できない。仮にドメインが消えても、いつかそれをまた見たくなったときにInternet Archiveに残っているのはむしろありがたい。ネットに載せた以上、本質的に公開だ
    • 自分の要求にInternet Archiveがまったく返答しないのがいちばんつらい。違法コンテンツ(名誉毀損、国家機密、特定のわいせつ物など)は例外として削除できるが、自分で公開したものまで歴史記録から削除を認めるべきではない、というのが一般原則だ。本当に個人情報を隠したいならログインの後ろに置いていただろう。サイトは今も存在していて、誰かが継続してクロールしている
    • スナップショットには「why?」というフィールドがある。実際にはInternet Archive以外にも、Common Crawl、Archive Teamなどが自分のサイトをプッシュした可能性がある。理由を確認して対象を正確に特定する必要がある
    • robots.txtでInternet Archiveに削除または除外を依頼してみるとよい。このポリシーは何度か変わったが、ここ数年では再びrobots.txtを尊重している。FAQ参照
  • ある意味では、パブリッシュするというのは、何かを公開して人々が一定の自由を持って利用できるようにすることだ。その自由がサイトの助けになることもあれば、ならないこともある。Googleのような大規模プラットフォームが変化するたびに、コンテンツパブリッシャーは常に適応してきた。AI要約もその流れの一部だ

    • これはやや特権意識のある見方だと思う。私はライセンス条件の下でソフトウェアを公開したことがある。ただ公開したからといって、誰もがどんな目的にも使ってよいという意味ではない
    • 私は自分のコンテンツの著作権を保持したまま公開している、という前提だ。誰かに商業的再掲載の自由まで与えるつもりはない。もしかすると、コンテンツをログインの後ろに隠す未来が来るのかもしれないが、Webの苦い未来だ
    • 1710年のアン法(最初の著作権法)以降、公に配布される情報にもルールが適用される
    • 私は自分の文章を人々に直接読んでほしいという思いで公開しているのであって、Googleに雑にAI要約させるためではない。Googleの決定は結局、Googleに利益が返る方向を向いている
    • パブリッシングとは、すべての権利を手放すことではないはずだ。多くの人は、自分と近い読者層を集めるために書いている。その間に仲介者が入り込むと、かえって読者と著者のつながりが損なわれる。要約したいなら私自身が望むやり方でできるが、ほとんどの作者はLLM要約を望んでいない。またLLMはバイアスが多く、肝心な段落を独自フィルターで削除するなど、見当違いな要約になることもある。自分の意見がゆがめられた弱い版として伝えられることほど、アイデアにとって致命的なものはない
  • このブログ記事、最後の文で「コメントを残してほしい」と書いてあるのに、実際のコメント欄が見当たらず、もしかしてAI生成ではないかと気になる

  • Perplexity、OpenAI、Claudeなどでもこの機能が動作するのか気になる

  • GoogleがPerplexityのように出典を明確に引用してくれれば、みんなにとって良い結果になると思う。原文へのリンクとクレジットも与えられるし、UXも向上するはずなのに惜しい

    • Googleも引用はしているが、あまりに目立たない「リンク」風の1文字ユニコード記号で示している。クリックしても直接ソースページに行くのではなく、横のパネルが開き、その中に複数のソースが入っていることが多い。技術的にはこの引用が結果ページ内の最初のリンクだが、実際に自分のページへ行くには2回クリックしなければならない。引用をもっと目立たせ、ページタイトルをアンカーテキストにした直リンクとして提供してほしい。引用が複数あるなら、横パネルを最初から開いておくか、すべてメインページに見える形で表示してほしい
  • 今後、自分の専門分野は企業WebサイトをLLMがうまく要約できるようにする方法になるだろう。こうした詳細で忠実なガイドコンテンツが必要だ

  • この記事のタイトルとドメインを貼り付けたところ、結果が違っていた。参照画像