Is Your Site Agent-Ready? - あなたのサイトはエージェント対応できていますか?
(isitagentready.com)- Cloudflareが作成したツールで、自分のWebサイトがエージェントにどれだけ適しているかをスコアで表示
- AIエージェント対応レベルを診断し、認証・コンテンツ形式・アクセス制御・決済方式などの最適化の方向性を確認可能
- 失敗項目ごとにコーディングエージェントへそのまま渡せるプロンプトを提供し、自動改善を支援
- スコアは4つの領域を基準に算定
- Discoverability: robots.txt, sitemap.xml, Link Headers (RFC 8288)
- Content: Markdown for Agents
- Bot Access Control: Content Signals, robots.txt内のAI botルール, Web Bot Auth
- Capabilities: Agent Skills, API Catalog, OAuthサーバーディスカバリー(RFC 8414/9728), MCP Server Card, WebMCP
- エージェントコマース標準への対応有無も点検(スコアには未反映)
6件のコメント
本当に笑えるのが、自分たちの
cloudflare.comは25点です。GeekNewsのnews.hada.ioは42点ですね。まずは自分たちのサイトからちゃんと取り締まってから、他人を評価すべきでは..
もちろん、評価サイトである
isitagentready.com自身は83点ですが、これは新しく作ったものだからでしょうし..似たようなツールとして https://orank.ai のようなものもあります。
Cloudflareがああいうものを作ったのは、各サイトが対応できていないと道徳的に説教するためではないはずなのに、そんなに嘲笑する理由があるのでしょうか?
インターネットの生態系で大きな影響力を持つ企業として、あのようにアジェンダを先取りすれば、事実上の標準と見なされるようになり、今後のインターネットの発展方向を自社の利益に有利な方向へ誘導することもしやすくなりますよね。
面白いと言っているのであって、嘲笑しているわけではありません。表現が少しそんなふうに見えたのかもしれませんね。
Cloudflare もここ数日いろいろと打ち出しているので、エージェント時代に向けて素早く対応しようとしているのは理解できます。
でも、あのサイトのチェックリストはちょっと変です。あれでサイトを点数評価するという発想自体に首をかしげます。
自分たちですら全部は実践できないような項目を並べておいて、まるでとても重要なことのように語るのが変だと言っているんです。
ウェブが quirk html でかなり混沌としていた頃、ウェブ標準チェッカーでサイトを採点してくれていた時代を思い出しますね。ウェブ標準を守るからといってサイトの中身まで保証されるわけではありませんでしたが、少なくともサイト側に標準準拠への問題意識を持たせる効果はあったと思います。そして Google のようにウェブをクロールして機械的に読み取る企業にとっては、寝ているだけで検索品質を無料で引き上げられる程度の利点もあったのではないかと思います。
ああいう形でガイドラインを示せば、人間だけでなく AI エージェントもインターネットの利用主体へと変わっていく時点で、多少なりともガタつきを減らしつつ、素早くインフラの安定化を実現できるでしょう。時間が経てば、いくつかは行き過ぎで余計なものだと見なされるとしても、まず素早く規律を整えること自体に関連業界での利点があるのではないか、という話でした。
やはりあちらもどうしようもない大企業で、人が暮らす場所はどこも似たようなものに見えます。
ヒューマノイドが人間と同じようなサイズと似た関節構造を備えている理由は、彼らのために別途ツールやラインを構築しないためです。
私たちはすでに全社RAGの構築や運用保守のような無駄なことをやってみて、エージェントとMCPの登場によってそんな必要はなかったのだと反省したのではないですか? なぜ同じ失敗を別のやり方で繰り返そうというのでしょうか。
人間の代わりにエージェントがWebを探索するという古臭いアイデアは、技術が問題なのではなく、Webそのものの一部であるGoogleの主な収益モデルを脅かす政治的問題のほうが、より大きな影響力を持つことになるでしょう。
どうせwebMCPは、RPAエージェントが成熟するまでの過渡期的な代替案にすぎません。このままだとxulに戻ろうという話まで出てきそうですね。