- GitHubスター18,000件を持つ NanoClaw の開発者が、プロジェクト名をGoogleで検索すると、公式サイトより偽サイトのほうが上位に表示されると明らかにした
- 誰かがプロジェクトのREADMEをスクレイピングして自動生成した 偽サイト(nanoclaw[.]net) がGoogle検索結果の2位を占めており、実際の公式サイトは5ページ以降にも現れない
- SEO最適化、Google Search Consoleへの送信、主要ITメディアからのリンク獲得など、あらゆる正当な対策を講じたにもかかわらず、Googleの検索結果は変わらない
- 偽サイトにマルウェアやフィッシングリンクが埋め込まれる可能性があり、セキュリティ重視で設計されたプロジェクトの最大のセキュリティ脆弱性がGoogle検索そのものになっている状況
- あらゆるシグナルが明確に一つの答えを指しているにもかかわらずGoogleが正しい結果を示せないのであれば、インターネット情報の入口としてのGoogleの信頼性そのものに疑問が生じる
NanoClawプロジェクトと偽サイト問題の発端
- NanoClawはセキュリティ優先設計のオープンソースプロジェクトで、すべてのエージェントが隔離されたコンテナ内で実行され、安全なサンドボックスランタイムを中核としている
- 2月2日の公開後に急成長し、CNBC、VentureBeat、The Register など主要メディアでも取り上げられた
- 公開初期には独自サイトがなく、GitHubリポジトリ自体がプロジェクトそのものだったため、機能開発とコミュニティ構築に集中していた
- 2月8日ごろ、誰かが nanoclaw[.]net ドメインを取得し、READMEからスクレイピングした内容で自動生成サイトを作成した
- 当初は正しいGitHubリンクも含まれていたため、大きな問題とは認識していなかった
偽サイトによる被害の拡大
- プロジェクトの成長とともに、ますます多くのユーザーが「あなたのウェブサイトにエラーがある」「サイトに広告があるのか」「モバイルでなぜこう見えるのか」などの問い合わせを送り始めた
- そのサイトはプロジェクトについて事実と異なる情報を掲載しており、投稿日まで偽装している
- 何千人ものユーザーがそのサイトを公式サイトだと誤認しており、NanoClawの第一印象が広告だらけの粗雑なページとして形成されていた
- 被害は日々積み重なっており、すでに数十万人が誤った情報にさらされた可能性がある
公式サイト構築とSEO対応の取り組み
- 2週間前に公式ウェブサイト nanoclaw.dev を構築し、可能な限りのあらゆる対策を実施
- GitHubリポジトリから公式サイトへのリンクを接続
- 構造化データと適切なSEO最適化を適用
- Google Search Consoleに約15回送信
- The Register、VentureBeat、The New Stack などのメディア記事から実際のサイトへのリンクを確保
- Hacker Newsで1位を記録したブログ記事を公開
- サイトを15言語に翻訳
- すべてのソーシャルプロフィールから nanoclaw.dev へリンク
- Google、Cloudflare、ドメイン登録業者 spaceship.com に削除要請(takedown notice) を提出
- インターネット上のあらゆるシグナルが nanoclaw.dev を公式サイトとして示しているにもかかわらず、Googleの検索結果は変わらない
Google検索の構造的問題
- Google検索で1位の NanoClaw GitHubリポジトリのウェブサイト欄には、nanoclaw.dev が明示的に記載されている
- それにもかかわらずGoogleは依然として偽サイトを公式サイトより上位に表示している
- SEOの専門家は「SEOで勝てばいい」「Google Adsを買え」と助言したが、オープンソースプロジェクトの開発者が自分のプロジェクト名についてSEO戦争を強いられる状況自体が問題だ
- これはSEOの問題ではなく、Googleの問題だ
セキュリティリスク
- NanoClawはエージェントランタイムの安全性とサンドボックス化に注力するセキュリティ重視プロジェクトだ
- 現在、このプロジェクト最大のセキュリティ脆弱性はGoogle検索そのものだ
- 偽サイトの運営者は、いつでもそのページに暗号資産詐欺、フィッシングページ、悪意あるダウンロードリンクを挿入できる
- GitHubリポジトリをフォークして悪意あるコードを注入し、Googleが正当なサイトとして提示する偽サイトからリンクすることも可能だ
- Googleはこの状況をリアルタイムで可能にしている能動的なセキュリティリスクとなっている
Googleの信頼性に対する根本的疑問
- プロジェクト自体が正解を明確に示し、あらゆるシグナルが一致し、答えが曖昧ではない問いですら、Googleは正しい結果を提供できていない
- 選挙、ワクチン、医療、金融など重要な情報についてGoogleを信頼できるのかという根本的な疑問が提起される
- メタタグやファビコンの形式が完璧かどうかと自分を責めるのはやめるべきであり、Googleが豊富で明確なシグナルを持ちながら誤った結果を示すのはGoogleの責任だ
- Googleがインターネット情報の入口としての地位を維持するなら、このような基本的な問題を解決できなければならない
4件のコメント
SEOスパマーたちは本当に熱心ですね。
今は検索しても出てこないようですが、自分が作った製品は継続的に検索して確認する必要があります。
私もGeekNewsへの検索流入キーワード順位は毎回チェックしています。ウェブサイトを運営しているなら、Search Consoleを見るのは必須です。
nanoclawを検索すると、今でもnanoclaw.netが Git の下に表示されますね。構造化データが重要なんですね
Hacker Newsの意見
数年前にJohn ReillyがHNで「How I ruined my SEO」という記事を投稿したとき、私は無料で手伝ったことがある
彼はその過程をブログにまとめている
希望するなら今回も手伝うつもりがある
いちばん手っ取り早い解決策は、.netサイトの被リンクのマッピングをして、誤ったリンクを張っている媒体にメールを送ること
「このリンクは偽サイトにつながっています。本物はこちらです」と伝えると、意外と多くのところが修正してくれる
それだけでも状況が変わる可能性がある
さらに、nanoclaw.devに構造化データとschemaを追加すれば、検索エンジンやLLMにより正しく認識される
実践的な助言をまとめると
被リンク一覧スプレッドシート を参照
本当に寛大な提案だと思う
ただ、著者の立場からすると、Googleが作った問題を自分で解決しなければならない状況は理不尽に感じると思う
何十億ドルもの資金を持つ会社が、GitHubに明確にある公式リンクすら見分けられず、結局個人が時間を使わなければならないというのは不公平に感じる
こうした不要なSEO作業をしなければならないのはむなしく感じる
こういう問題は1つのサイトだけの話ではない
多くのオープンソースプロジェクトが同じ問題に直面している
根本的にはGoogleが直すべき問題だ
素晴らしい助言だ
良いフィードバックだ
第三者の視点で見ると、.net版がThe RegisterやThe New Stackのような権威の高い媒体からリンクを受けていたため、上位表示されたように見える
まだ1週間しか経っていないので、Googleが正しく認識する時間を与える必要がある
Googleはその話題を先に扱ったサイトに偏る傾向がある
したがって、時間が経てば順位が調整される可能性が高い
その間はGitHubではなく公式Webサイトへリンクするほうがよい
実際に確認したところ、誤ったページを引用していたのはThe Registerだけで、他の記事はGitHubを参照していた
The Registerアーカイブ
VentureBeatアーカイブ
The New Stackアーカイブ
インターネット上には複製コンテンツが多すぎて、「先に公開した場所が原本」という基準が常に正しいわけではないことを示している
だから今でも検索するとJava 8のドキュメントが上位に出てくる。かなり腹立たしい現象だ
問題の核心は「まだ1週間しか経っていない」という点だ
Googleのアルゴリズムは数多くのauthority, qualityの重み付けが絡んでいて、短期間で変えるのは難しい
開発者なら、各プロジェクトごとに独自のWebサイトのページを用意しておくのがよい
可能ならrepoもself-hostingするほうが安全だ
私はKagiの有料ユーザーだが、最近はKagiもAI生成の低品質な結果が増えていてがっかりしている
nanoclawの検索結果もGoogleとほぼ同じだった
私も似たような感覚だ
Kagiのカスタマイズ機能は良いが、Web自体があまりにも低品質な情報で埋め尽くされていて、結局どの検索エンジンにも限界がある
最近はどの検索エンジンも気に入らない :(
Kagiでnanoclawを検索してみたところ
1位はnanoclaw[dot]net、
2位はqwibitaiのGitHubリポジトリ(偽物に見える)、
3位は宣伝っぽい動画、
4位は本物に見えるgavrielcのGitHub、
5位はnanoclaw.devだが、タイトルは「Don’t trust AI agents」と表示されていた
6位は別のforkだった
複数の検索エンジンとAIを試した結果をまとめる
GoogleとBraveは公式GitHub → 偽ドメインの順、
DuckDuckGoとBingは偽ドメイン → 公式GitHubの順、
Mojeekは第三者の記事中心で、Qwantは最悪だった
一方で、ChatGPT、Gemini、GrokなどのAI検索モードは大半が公式サイトを正しく認識し、一部は偽サイトへの警告まで表示した
結論として、AIは従来の検索よりはるかに正確だった
ただし、ユーザーごとに結果は異なる
私のGoogleでは.netが1位、GitHubが2位に出てくる
ChatGPT 5.2 Autoモードは依然として.netを公式サイトと誤認していたが、ThinkingモードとClaudeは正しく.devを優先して表示した
AltPower Searchでも同じ問題が見られた
nanoclaw.devはまだ新しいドメインなので、インデックスが不十分なのかもしれない
AltPower, Archive, Cloudflare Radar を参照
どんなプロンプトでAIをテストしたのか気になる
上のコメントの構造化データに関する助言が核心だ
私もOrganizationとSoftwareApplication schemaを追加したところ、Googleがサイトをまったく違う形で認識し始めた
問題は、Googleがすでにすべてのシグナルを持っているにもかかわらず、依然としてドメインの古さと被リンク数をより重視している点だ
結局このシステムは、本当の作者より先にドメインを押さえた人を報いる
誰が本当に人間なのか確認できるのだろうか
今日nanoclawを検索していて、別の偽サイト nanoclawS.ioも見つけた
メールアドレスを収集していて危険だ
こういう場合、Googleの順位を争うより、サイト自体をホスティングレベルで遮断するほうがよいと思う
DMCA申請が可能な著作権要素があるなら試してみる価値がある
すべてのオープンソース開発者への助言として、プロジェクトを公開するなら悪用される可能性を常に念頭に置くべきだ
世の中はそういうふうにできている
オープンソースはありがたいが、まず自分を守ることが重要だ
特にMITライセンスなら、Amazonのような大企業がforkして収益化しても、あなたは1円も受け取れない可能性がある
慈善のためのコーディングとは別次元の問題だ
関連する法則としてHyrum’s Lawがある
「APIの利用者が十分に多くなると、システムのあらゆる挙動が誰かの依存対象になる」という内容だ
SEOで負けるのは、株式市場でお金を失うのに似ている
システムはあまりにも効率的で冷淡で、個人の不満にはまったく反応しない
結局は戦略を立て直し、市場を理解する方向で向き合うしかない
@Gavrielへの提案として、NanoClawの商標登録を検討してみてもよい
登録または出願だけでも、ドメイン登録者やCloudflare、Googleに対する法的対応力が強まる
UDRP紛争で相手の悪意ある登録を立証しやすくなる
Clawトレンドに乗るのが流行していたが、今や誰かがあなたの名前を使ってその流れに乗る状況になったわけだ
もともとClawプロジェクト自体も、別の製品の人気に便乗したあとで名前を変えたことを考えると皮肉だ
私も同じことを思っていた
これは「正直なサイトが詐欺師に被害を受けた事件」というより、注目を奪い合う終わりのないゲームの中で道を見失った事例に見える