出于某种原因,当我查看 Google 网站管理员工具的“分析 robots.txt”以查看我们的 robots.txt 文件阻止了哪些网址时,这不是我所期望的。这是我们文件开头的片段:
Sitemap: http://[omitted]/sitemap_index.xml
User-agent: Mediapartners-Google
Disallow: /scripts
User-agent: *
Disallow: /scripts
# list of articles given by the Content group
Disallow: http://[omitted]/Living/books/book-review-not-stupid.aspx
Disallow: http://[omitted]/Living/books/book-review-running-through-roadblocks-inspirational-stories-of-twenty-courageous-athletic-warriors.aspx
Disallow: http://[omitted]/Living/sportsandrecreation/book-review-running-through-roadblocks-inspirational-stories-of-twenty-courageous-athletic-warriors.aspx
对于 Googlebot 和 Mediapartners-Google,scripts 文件夹中的任何内容都会被正确阻止。我可以看到这两个机器人看到了正确的指令,因为 Googlebot 说脚本从第 7 行被阻止,而 Mediapartners-Google 从第 4 行被阻止。但是我从第二个用户下的不允许的 url 中输入的任何其他 url -agent 指令未被阻止!
我想知道我的评论或使用绝对网址是否把事情搞砸了......
任何见解都值得赞赏。谢谢。