是否可以防止网站被任何抓取工具抓取,但同时允许搜索引擎解析您的内容。
仅仅检查用户代理并不是最好的选择,因为很容易模拟它们。
JavaScript 检查可能是(谷歌执行 JS)一个选项,但一个好的解析器也可以做到这一点。
有任何想法吗?
是否可以防止网站被任何抓取工具抓取,但同时允许搜索引擎解析您的内容。
仅仅检查用户代理并不是最好的选择,因为很容易模拟它们。
JavaScript 检查可能是(谷歌执行 JS)一个选项,但一个好的解析器也可以做到这一点。
有任何想法吗?
检查链接访问时间可能是可能的,换句话说,如果首页被点击,那么首页上的链接都被“快速”点击。
更简单的是,在页面中删除一些隐藏的链接;机器人将跟随,人们几乎永远不会。
使用DNS 检查卢克!:)
帮助文章通过 Google验证 Googlebot中提供了相同的想法