1 ポイント 投稿者 GN⁺ 2026-01-24 | 1件のコメント | WhatsAppで共有
  • GoogleはProgrammable Search Engine(プログラマブル検索エンジン)を刷新し、ウェブサイト別、エンタープライズ、ウェブ全体検索という3つのユースケース別ソリューションへと簡素化した
  • サイト専用検索は「Programmable Search Element」に統合され、最大50ドメインまで無料で指定できる
  • 高度な機能が必要な企業顧客は、Vertex AI Searchを通じてAIベースの対話型検索エンタープライズ級機能を利用できる
  • ウェブ全体検索が必要なパートナーは、別途申請を通じてGoogleの全インデックスへアクセス可能なフルウェブ検索ソリューションを利用できる
  • すべての移行は2027年1月1日までに完了する必要があり、今回の変更は開発者パートナーにより焦点を当てた検索体験を提供するための措置である

Programmable Search Engineの進化

  • Programmable Search Engineは、学術機関から小売ウェブサイトまで、さまざまなパートナーが自社サイト内検索機能を提供できるよう支援してきた
  • Googleは今後、各ユースケースに合わせて高度化されたソリューションを提供し、ユーザーとパートナーの双方により高品質な検索体験を保証する計画だ
  • 今回の刷新は製品の簡素化とモダナイズを目標としており、利用目的に応じて最適なツールを選べるよう構成を再編した

検索要件ごとの明確な道筋

  • サイト専用検索: Programmable Search Element(「Search Element」)は、特定コンテンツ中心の検索体験を構築するための最適なツールとして維持される
    • 最大50ドメインまで指定でき、特定のオーディエンスを対象としたコンテンツに適している
  • エンタープライズ級検索: AIベースの対話型検索エンタープライズ級のグラウンディング機能を提供するGoogle Vertex AI Searchを継続提供する
  • ウェブ全体検索: 指定ドメイン以外のウェブ全体インデックスを検索する必要があるパートナー向けに、フルウェブ検索ソリューションを提供する
    • この機能の利用を希望する場合は、Googleフォームを通じて関心登録および詳細情報のリクエストが可能

より強力なツールへの移行計画

  • Googleは、パートナーが新ソリューションの可能性を最大限活用できるよう、移行期間を2027年1月1日までに設定した
  • Search Elementユーザーのうち50以下のドメインを検索する場合は、既存機能をそのまま維持できる
  • 50を超えるドメイン、または**「Search the entire web」オプション**を使用している場合は、フルウェブ検索ソリューションへの移行が必要
    • 移行完了期限は2027年1月1日
  • Custom Search JSON APIユーザーは、50以下のドメインではVertex AI Searchへ、ウェブ全体検索が必要な場合はフルウェブ検索ソリューションへ移行できる

新しいエンジン設定の変更

  • 2026年1月20日以降に作成されるすべての新規エンジンは「Sites to search」機能を必ず使用する必要がある
  • 既存のエンジンには影響はなく、2027年1月1日までは「Search the entire web」オプションを使用可能
  • この変更は、より焦点を絞った製品開発と検索体験の向上に向けた基盤づくりとなる

今後の方向性

  • Googleは今回の進化を通じて、開発者パートナーにより良い検索体験とカスタマイズされたツールを提供する計画だ
  • Programmable Search Engineチームは、パートナーとともに未来の検索エコシステムを構築していく意志を表明した

1件のコメント

 
GN⁺ 2026-01-24
Hacker Newsの意見
  • GoogleがProgrammable Search(旧 Custom Search)のポリシーをひそかに変更した
    今後、新しい検索エンジンは最大50個のドメインしか検索できず、従来のウェブ全体検索機能は2027年1月1日までに終了予定となっている
    ウェブ全体検索が必要な場合は、現在は
    Vertex AI Search
    のようなエンタープライズ向けソリューションの「関心登録フォーム」へ案内される
    価格の公開もなく、応答保証もない
    これは事実上、インディー・ニッチ検索エンジン時代の終焉を意味する変更に見える
    関連告知リンク: Google サポート文書

    • DuckDuckGoはMicrosoft Bing Custom Searchを使用しており、はるかに安定したシステムだと思う
      Googleのように、いつサービスを終了されるか心配する必要がない
      customsearch.ai
    • もしGoogleが控訴で敗訴するか、Partial Stayの要請が棄却されれば、裁判所の判決によりGoogleは「Qualified Competitors」にウェブ全体検索を供給する義務を負うことになる
      関連文書: 裁判所判決 PDF
    • 自分は直接独自のウェブインデックスを構築した。現在3,400万件の文書をインデックスしている
      greppr.org
      他人のインフラに依存するのは危険だ。Google Graveyardは実在する
    • 「search the entire web」機能があったことを今日初めて知った
      実質的には、Googleが自社検索をラップして、他者が広告を載せて販売できるようにしていたわけで、驚いた
    • 今回の変更で影響を受けるニッチ検索エンジンにはどんなものがあるのか気になる
  • 今回の件は、独占APIに依存することの危険性をよく示している
    Twitter API制限のように、プラットフォームが徐々にエコシステムを閉じていく典型的なパターンだ
    代替案としては

    1. MeilisearchTypesenseのようなツールで独自インフラを構築する
    2. SerpAPIのような迂回サービスを使う(ただし、Googleが法的措置を進めている)
    3. データソースを直接コントロールする特化型検索エンジンへ転換する
      核心的な教訓は、「中核的な価値は自分で所有すべき」ということだ
      Googleのメッセージは明確だ — 「インディー検索は終わりだ、エンタープライズ料金を払うか、去れ」という意味だ
  • 関連議論: KagiとGoogle判決の影響

    • Kagiの記事によれば、Googleはウェブインデックスデータ(クロールメタデータ、スパムスコアなど)を原価水準で提供しなければならない
      ところが今回の措置は、その判決と
      矛盾しているように見える

      おそらくGoogleは既存の統合方式をなくし、KagiやEcosiaなどが不便な方法でデータを購入するよう仕向けたいのだろう
  • ヨーロッパではQwantとEcosiaが独自の検索インデックス構築のために協力している
    EUSPプロジェクト

    • 良い試みだが、開始が遅すぎて影響力は限定的になりそうだ
      それでも2025年末までにフランスの検索クエリの30%を目標にしている
      プロジェクト詳細
  • 今回の変更は事実上、StartpageやEcosiaのようなGoogleベースのホワイトラベル検索エンジンに大きな打撃を与えるだろう
    Bing以外に代替はほとんどなく、AI企業(Perplexity、Anthropic)は独自インデックスを構築しているようだ

    • ちなみにMojeekは90億ページ以上をインデックスした独自のウェブ検索APIを提供している
      Mojeek API
  • 自分は「Google Search in a TUI」というトイプロジェクトを作っていたが、今回のポリシー変更で完全に方向転換することになった
    もともとはBrave Searchをバックエンドの選択肢として追加するつもりだったが、今ではそれをデフォルトにする予定だ
    今回の変更が決定的なきっかけになった

  • 自分もトイ検索エンジンを作ってみたいのだが、実際にやった人がいるのか気になる

    • 自分は2021年に始めて、今では11億件の文書をインデックスしている
      単一サーバーで運用しているが、スケール拡大と品質維持が最も難しい
      数百万件までは簡単だが、数十億件規模になるとまったく別の問題になる
      開発日誌: Marginalia Devlog
      実際の検索エンジン: Marginalia Search
      現在インデックス圧縮作業中のため、性能はやや低下している
    • YaCyという分散型検索エンジンもある
      ユーザーがウェブをクロールし、互いのインデックスを共有するTorrent型の構造
      実用検索エンジンとしては不十分だが、コンセプトは興味深い
    • ただしGoogleでなければ、ウェブクローリングのブロックに突き当たりやすい
  • 最近はAIクローラーが急増したと言われるが、だとすれば新しいウェブ全体データセットも多数生まれているはずだ
    こうしたデータセットをAPIとして提供できない理由が何なのか気になる — 品質の問題なのか、更新頻度の問題なのか
    事実上、新しいビジネスチャンスになる可能性もある

    • 「AIクローラーがサーバーを麻痺させる」という話は大げさだ
      1990年代のハードウェアでも数十億件のリクエストを処理できた
      毎回ページを生成せず、変更時にだけ更新すれば十分だ
  • Bing、Ecosia、Qwantのような競合インデックスが本当に客観的に劣っているのか、それとも単にGoogleの慣性によるものなのか気になる
    今回の変化がむしろ競争促進につながるのではないかとも思う

    • Bingは最近APIを終了し、もともとコストが非常に高かった
      今ではプログラム経由で検索結果を取得する方法はほとんどない
    • Google Programmable Searchの利点は無料で、AdSense連携で収益化も可能だったことだ
      一方Bingはクエリごとに課金する
      EcosiaとQwantはBingとライセンス契約を結び、一般ユーザーより安く利用している
    • 英語検索では他のインデックスでも十分使えるが、少数言語の検索ではGoogleがほぼ唯一の選択肢だ
      他のエンジンがその規模に到達するのは難しい
    • BingのインデックスはGoogleより小さく、RedditのようなサイトはGoogleと独占検索契約を結んでいるため、結果の品質が落ちる
    • 英語以外の言語では大半が品質がひどいため、数十億のユーザーは依然としてGoogleに依存せざるを得ない