0

您好,在我的站点中,我有一个核心文件夹,其中包含敏感数据,其中有一个带有“全部拒绝”的 htaccess 文件。我的问题是即使 Google 或其他一些爬虫知道我不想让任何人在那里,他们是否可以访问该目录?

4

2 回答 2

1

不,他们不能。机器人可以选择是否遵循 robots.txt 等指令,但它们不能跳过服务器向它们抛出的内容。换句话说,服务器将拒绝显示该信息,并且机器人对此无能为力(据推测)。祝你好运:P

于 2013-06-13T12:24:17.820 回答
1

从技术上讲,不,他们无法访问它。但是通过将文件夹放在那里(在公共目录下),您将面临更高的风险,例如如果您犯了错误并覆盖了您的 .htaccess ,或者服务器被更新并且您的规则变得无效。

您最好将该文件夹移到您的public_html(或等效的)之外。我通常做的是private_files在文件夹旁边创建一个右侧public_html,我需要的任何文件都可以从(安全!)脚本中引用。

于 2013-06-13T12:30:15.800 回答