我正在尝试阻止所有机器人/爬虫/蜘蛛获取特殊目录。我该怎么做htaccess
?我搜索了一下,通过基于用户代理的阻塞找到了解决方案:
RewriteCond %{HTTP_USER_AGENT} googlebot
现在我需要更多的用户代理(对于所有已知的机器人),并且该规则应该只对我的单独目录有效。我已经有一个 robots.txt,但并不是所有的爬虫都会查看它......通过 IP 地址阻止不是一个选项。还是有其他解决方案?我知道密码保护,但我必须先询问这是否是一种选择。尽管如此,我还是在寻找基于用户代理的解决方案。