几个机器人/爬虫正在扫描我们的网站,我想知道是否有什么可以改变的,当找不到页面时(例如:www.mysite.com/scriptresource.axd),它将被重定向到一个页面而不是显示错误:
Message:
This is an invalid script resource request.
我已经配置了global.asax
我将收到错误邮件,但我收到了大量机器人试图访问不存在页面的电子邮件。e.g. ScriptResource.axd
请注意以下事项:
- 您需要先登录才能在网站上执行任何操作,但机器人会以某种方式导致此错误。
- 如果您已登录并尝试访问不存在的页面,您最终会遇到手动 404 (RemoteOnly) 错误。
- 在 Global.asax 中,我添加了对 IP 的 Session_start 的检查,它们将被重定向到 Google。但是,它们仍然可能导致此错误。
我想念什么?