我们有一个可以选择将 ID 作为 GET 参数的页面。如果提供的 ID 无效,该页面会抛出错误并发出通知,告知某人正在错误地访问该页面。火上浇油的是,ID 可以有效一段时间,然后过期。
我们遇到了一个问题,搜索引擎机器人使用旧的、过期的 ID 访问页面。这意味着每次我们被蜘蛛攻击时都会收到一堆“误报”警报。我很想有一些方法告诉机器人继续抓取页面,但不使用 GET 参数——只需索引无参数页面。这甚至可以通过 robots.txt 文件或类似文件远程实现吗?
注意:我知道解决这个问题的最好方法是改变页面的行为,事实上,这会在几周内发生。我只是在此期间寻找解决方案。