由于机器人淹没了我的网站,我的 CPU 使用率突然超过 400% 后,我创建了一个 robots.txt,并将该文件放在我的根目录中,例如“www.example.com/”:
User-agent: *
Disallow: /
现在谷歌尊重这个文件,我的谷歌日志文件中不再出现。但是 BingBot 和百度蜘蛛仍然出现在我的日志中(而且很多)。
由于 CPU 使用率和带宽大幅增加,而且我的托管服务提供商即将暂停我的帐户,我首先删除了我的所有页面(以防有讨厌的脚本),上传干净的页面,通过 IP 地址阻止所有机器人.htaccess & 然后创建了 robots.txt 文件。
我到处搜索以确认我做了正确的步骤(尚未尝试 .htaccess 中的“重写”选项)。
任何人都可以确认我所做的应该完成这项工作吗?(自从我开始这个项目以来,我的 CPU 使用率在 6 天内下降到 120%,但至少阻止 IP 地址应该会将 CPU 使用率降低到我通常的 5-10%)。