2

我在我的网站上经常收到以下错误:

“这是一个无效的脚本资源请求。”

当蜘蛛尝试爬取 /ScriptResource.axd/WebResource.axd时会发生错误。

在 robots.txt 中禁止这些文件可以正常工作(正如TheLukeMcCarthy在此处所建议的那样)。

用户代理:*
禁止:/WebSite/ScriptResource.axd
禁止:/WebSite/WebResource.axd

这对于像 Websense 这样(粗鲁地)忽略 robots.txt 的服务是行不通的。

知道如何阻止 Websense 尝试抓取这些文件吗?

这些站点使用 ASP.NET 和 HTML5 开发并托管在 IIS7 上。

提前致谢!

4

1 回答 1

0

我们得到了类似的东西。我唯一的想法是在 IIS 中打开 IP 地址限制,然后阻止它们的 IP。(我个人没有这样做,所以这只是一个想法。)

于 2013-07-23T16:46:05.757 回答