我有一个网站报告我的电子邮件中每个非预期的服务器端错误。
经常(每 1-2 周一次)有人会启动自动化工具,用大量不同的 URL 轰炸网站:
- 有时他们(黑客?)认为我的网站在 phpmyadmin 内部托管,他们试图访问易受攻击的(我相信)php-pages...
- 有时他们会尝试访问确实不存在但属于流行 CMS 的页面
- 上次他们试图注入错误的 ViewState ......
显然不是搜索引擎蜘蛛,因为 100% 生成错误的请求都是对无效页面的请求。
现在他们并没有造成太大的伤害,唯一的一个是我需要删除大量的服务器错误电子邮件(200-300)......但在某些时候他们可能会找到一些东西。
我真的厌倦了,正在寻找能够阻止这种“蜘蛛”的解决方案。
有什么可以使用的吗?任何工具、dll 等......或者我应该自己实现一些东西?
在第二种情况下:您能否推荐实施方法?我是否应该限制每秒来自 IP 的请求数量(假设每秒不超过 5 个请求,每分钟不超过 20 个)?
PS 现在我的网站是使用 ASP.NET 4.0 编写的。