我用谷歌搜索了很多,阅读了很多文章,但反应不一。
如果我想阻止我网站的某个部分被搜索引擎索引,我有点困惑哪个是更好的选择。基本上,我对我的网站进行了很多更新并为客户设计,我不希望我上传的所有“测试数据”都被编入索引,以避免重复的内容问题。
我应该使用子域并阻止整个子域
或者
创建一个子目录并使用
robots.txt
.
我是网页设计的新手,对使用子域有点不安全(在某处读到它是一个有点高级的过程,即使是一个小错误也可能产生很大的后果,此外,Matt Cutts 也提到了类似的东西(来源):
“我建议您使用子目录,直到您开始对自己网站的架构充满信心。到那时,您将更有能力为自己的网站做出正确的决定。”
但另一方面,我对使用robots.txt
以及任何人都可以访问该文件犹豫不决。
两者的优缺点是什么?
现在我的印象是谷歌对两者的处理方式相似,最好使用robots.txt
.