6

我使用 robots.txt 来限制我网站中的一个文件夹。该文件夹包含正在建设中的站点。谷歌已将所有处于测试阶段的网站编入索引。所以我使用了 robots.txt。我首先提交了站点并且启用了 robots.txt。现在状态为 www.mysite.com/robots.txt 的成功。但谷歌仍在列出这些测试链接。这是我为 robots.txt 编写的代码...

User-agent: *
Disallow: /foldername/

谁能建议我可能是什么问题?提前致谢

4

2 回答 2

3

您是否按照 Google 的说明测试了 robots.txt? http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=156449

要测试站点的 robots.txt 文件:
  • 在网站管理员工具主页上,单击所需的网站。
  • 在站点配置下,单击爬虫访问
  • 如果尚未选中,请单击测试 robots.txt 选项卡。
  • 复制 robots.txt 文件的内容,并将其粘贴到第一个框中。
  • 在 URL 框中,列出要测试的站点。
  • 在用户代理列表中,选择所需的用户代理。


站长工具:https ://www.google.com/webmasters/tools/home?hl=en

于 2010-09-08T03:57:49.143 回答
3

请参阅从 Google 网站管理员博客请求从我们的索引中删除内容。您可以通过使用Google 网站管理员工具提交删除请求来加快删除过程;否则,页面在重新抓取时最终会从索引中删除(即更新 robots.txt 文件不会立即更改;更改会在后续抓取时发生)。

于 2010-09-08T03:58:07.267 回答