我有一个超过 20,000 页的 DNN 站点。Googlebot 和 Bingbot 一直在抓取我的网站。
当我查看我的站点日志时,我可以看到 google 和 bing 正在通过 pageid 抓取我的网站(例如:www.url.com/Default.aspx?TabID=5000)
机器人每分钟都在访问我的网站。当我添加新页面时,我希望机器人抓取新添加的页面,相反我看到机器人重新抓取非常旧的页面,并且需要几个小时才能识别新添加的页面。
我有超过 10,000 个条目的 robots.txt 文件,这些条目具有以下定义:
不允许:/Default.aspx?TabID=5000
不允许:/Default.aspx?TabID=5001
不允许:/Default.aspx?TabID=5002
等等。
所以我注意到几个问题:
1 - Googlebot 和 Bingbot 忽略了我的禁止并重新抓取了我在 robots.txt 中定义的页面 - 机器人如何知道使用 TabID 返回并重新抓取旧页面?
2 - 我仍然注意到,当我添加新页面时,两个机器人都在忙于抓取旧内容,并且不会立即阅读我的新内容,有没有办法强制 Google 和 Bing 机器人总是首先阅读新添加的页面?
提前感谢您的任何建议。