我的网站有大约 500.000 页。我制作了 sitemap.xml 并列出了其中的所有页面(我知道每个文件有 50.000 个链接的限制,所以我有 10 个站点地图)。无论如何,我在 webmastertool 中提交了站点地图,一切似乎都很好(没有错误,我可以看到提交和索引链接)。Hoverer 我经常遇到爬虫的问题。GoogleBot 每天 4 次抓取同一页面,但在 sitemap.xml 中我告诉该页面每年都会更改。
这是一个例子
<url>
<loc>http://www.domain.com/destitution</loc>
<lastmod>2015-01-01T16:59:23+02:00</lastmod>
<changefreq>yearly</changefreq>
<priority>0.1</priority>
</url>
1) 那么如何告诉 GoogleBot 不要频繁爬虫,因为它会使我的服务器超载?
2)该网站有几个页面,如http://www.domain.com/destitution1,http://www.domain.com/destitution2 ......我把规范网址放到http://www.domain.com/穷困潦倒。这可能是多蜘蛛的原因吗?