- 個人ブログ blog.james-zhan.com が開設から1か月で Google検索のインデックスから完全に除外された
- Google Search Console(GSC)でRSSフィードURLを誤って検証した直後、すべての投稿が「Crawled – currently not indexed」状態と表示されるようになった
- ドメイン設定、コンテンツ品質、内部リンク構造など 複数の原因候補を点検したが問題なし と確認された
- Bear Blog創業者のHermanの協力で DNS、HTML/CSS、プラットフォームの問題も除外 され、他の検索エンジンでは正常にインデックスされていた
- 最終的にブログを新しいサブドメインへ移転し、Googleの自然なインデックスに任せることに決定。原因は依然として不明のまま
当初の状況
- ブログは10月4日に開設され、最初の長文の 時事コラム風記事 を公開
- Google Search Console(GSC)にサイトマップを送信してインデックス登録をリクエストすると、翌日にはすぐ検索結果に表示された
- その後も新しい記事を公開するたびにインデックス登録をリクエストし、正常に反映されていた
問題の発生
- 10月14日、GSCであるURLがインデックスされていないというメッセージを見て、「Validate」ボタンをクリック
- 該当URLはRSSフィード(
feed/?type=rss)で、実際のページではなかった
- 10月20日、GSCから「一部の修正に失敗しました」というメールを受け取った後、すべての投稿がインデックス解除 された
- ステータスメッセージは「Page is not indexed: Crawled – currently not indexed」
- サイトマップの再送信や個別URLのインデックス登録リクエストも効果がなかった
原因の追跡
- インデックス検証を開始した日と、全投稿の非インデックス化が発生した日が一致 していた
- RSSフィードの検証試行が問題を引き起こしたのかは不明
- その後に新規公開した記事も、すべて同じエラー状態のままだった
- 11月3日には、最後に残っていた1本の投稿までインデックス解除された
原因候補の点検
- ドメインの問題: GoDaddyで使用中の
james-zhan.com は他のサブドメインでは正常にインデックスされていた → 原因ではない
- コンテンツ品質: 他のBear Blogの事例と比較しても、コンテンツ量や品質に問題はない → 原因ではない
- 内部リンク不足: Bear Blogの基本構造は同じで、他のブログは正常にインデックスされている → 原因ではない
- その他の要因: Bear Blog創業者Hermanが確認した結果
- DNS、HTML/CSS、プラットフォーム設定はいずれも正常
- カスタムCSSコードもインデックスに影響していない
他の検索エンジンと対応策
- DuckDuckGo、Bing、Braveなどでは ブログは正常にインデックス されていた
- 技術的な欠陥ではなく、Google側の問題だと推測された
- ブログを 新しいサブドメイン(journal.james-zhan.com) に移転し
- GoDaddyからPorkbunへドメインを移管
- URLフォワーディングを設定し、既存リンクが新しいブログへ自動的に接続されるよう構成した
- 新しいブログではGSCにサイトマップを送信せず、自然なインデックスに任せる ことにした
- 原因はいまだ解明されておらず、筆者は Googleのインデックスシステムの不透明さ に疑問を呈している
1件のコメント
Hacker Newsの反応
AI Overview は自分では制御できないが、検索ページに
noindexを追加したところ、1週間でトラフィックが回復した詳細は 自分のブログ記事 にまとめている
/searchページがキャッシュされてクローラーに露出したらしい。検索ページはキャッシュせず、X-Robots-Tag による noindex を適用するのがよい
今後は独自の 分析ツール でトラフィックを追跡する必要がありそうだ
今や人々は要約と広告だけ見て去っていく
ひょっとして別のサイトがその検索 URL にリンクを張って、クロールされたのだろうか?
Google が要約文に 出典リンク を付けてくれれば、クリック率は多少回復するかもしれない
サイトが制裁を受けても、理由も分からず、不服申立てもできない。
Google は事実上 ゲートキーパー(Gatekeeper) の役割を果たしている。
公共財のように機能している以上、それに見合う 支援体制と責任 が必要だ。
規制が万能とは言わないが、この種の公益インフラ級企業には最低限の アクセス保証義務 があるべきだ
今は広告費を払って初めて検索で見える構造になっている
その結果、インデックス済みページが数千から100まで激減した
スクリーンショット 参照。
6か月たっても回復しない。個人プロジェクトだからまだいいが、ビジネスだったら激怒していただろう
更新後のスクリーンショット
一定期間運営されると「既存使用権」として認められることすらある。
しかも法廷で Google Maps のスクリーンショット が証拠として提出されるのも見たことがある
実際には 詐欺業者 だった。鍵を壊されて600ドル請求された。
通報したら Google はすぐ削除したが、こういうものは登録時点で 本人確認 が必要だと思う
問題は、現実が地図に合わせて変わってしまうこともある点だ
行政手続きでは「異議がなければ問題なし」という感じで通ってしまうことが多い
私のサイトが重複コンテンツだと誤認されて 非インデックス化 されている。
Bing では問題ないのに、Google だけがこうしたエラーを出す
Reddit のページは見当違いの言語に翻訳された版だけが表示される。
おそらく 重複排除ロジック が誤作動しているのだろう
別ドメインでリバースプロキシを通すと、Google は重複としてインデックスする。
Canonical タグ と絶対パスのリンクを使うのがよい
17年間問題のなかったブログだった
スパムがあまりに増えたせいで 誤検知 も増えているようだ
こうしたやり方はむしろ 正常なコンテンツの比率を下げる逆効果 を生む
Google が 誰が生き残るかを決める構造 だという点で同じだ
RSS エラーは単なる 無関心の引き金 になっただけかもしれない
Google Maps はそんなに早く追いつけたのだろうか?
Instagram や TikTok の影響も無視できないのに、
Google にだけあまりに多くの 権限を与えた解釈 のように思える
結局 鶏が先か卵が先か の問題になる。
小さなサイトは露出されず成長できず、
大きなサイトは何の問題もなく上位表示され続ける