我想保留robots.txt
那些窃取内容并消耗我网站带宽的不好的爬虫(又名。坏机器人,被定义忽略)。同时,我不想干扰合法人类用户的用户体验,或阻止行为良好的机器人(例如 Googlebot)对网站进行索引。
处理此问题的标准方法已在此处描述:处理行为不端的机器人的策略。但是,该线程中提出和赞成的解决方案并不是我想要的。
一些不良机器人通过 Tor 或僵尸网络连接,这意味着它们的 IP 地址是短暂的,很可能属于使用受感染计算机的人。
因此,我一直在考虑如何通过让 IP 被列入黑名单的“误报”(即人类)再次访问我的网站来改进行业标准方法。一个想法是完全停止阻止这些 IP,而是要求他们在被允许访问之前通过验证码。虽然我认为 CAPTCHA 是合法用户的 PITA,但使用 CAPTCHA 审查可疑的恶意机器人似乎是比完全阻止这些 IP 访问更好的解决方案。通过跟踪完成 CAPTCHA 的用户会话,我应该能够确定他们是人类(并且应该将他们的 IP 从黑名单中删除),还是智能到足以解决 CAPTCHA 的机器人,将他们置于更黑名单上。
但是,在我继续实施这个想法之前,我想问问这里的好人是否预见到任何问题或弱点(我已经知道一些 CAPTCHA 已被破坏 - 但我认为我应该能够处理) .