2

差不多就是这个问题。有没有比标准 sitemap.xml 更有效的方法来[添加/强制重新抓取/删除],即在 google 中管理您网站的索引条目?

记得几年前,我在看一个不知名博主的文章,说他在自己的网站上写新闻,新闻的 url 条目会立即出现在 google 的搜索结果中。我认为他提到了一些特别的事情。具体是什么我不记得了…… 谷歌自己提供的一些自动重新抓取系统?但是,我不确定。所以我问,你是否认为我在犯错误,除了 sitemap.xml 之外没有其他方法来管理索引内容?我只需要确定这一点。

谢谢你。

4

2 回答 2

1

我不认为你会找到你正在寻找的神奇的“银弹”答案,但这里有一些额外的信息和提示可能会有所帮助:

  • 爬网深度和爬网速度直接受 PageRank 影响(它确实影响的少数事情之一)。因此,增加您网站的主页和内部页面的反向链接数量和质量将对您有所帮助。
  • QDF - 这个谷歌算法因素,“查询值得新鲜”,确实产生了真正的影响,并且是谷歌咖啡因基础设施项目背后的核心原因之一,可以更快地找到新鲜内容。这是像 SE 这样的博客和网站做得好的主要原因之一——因为内容是“新鲜的”并且与查询相匹配。
  • XML 站点地图确实有助于索引,但它们不会带来更好的排名。使用它们来帮助搜索机器人查找深入您架构的内容。
  • ping,尤其是通过博客,对诸如 ping-o-matic 之类的监控站点变化的服务进行 ping,确实可以帮助推送您的新内容的通知——这也可以确保搜索引擎立即意识到它。
  • 抓取预算 - 请注意不要将搜索引擎的时间浪费在您网站中不会更改或不应该在索引中占有一席之地的部分上 - 使用 robots.txt 和机器人元标记可以将搜索机器人聚集到不同的部分您的网站(谨慎使用,以免删除高价值内容)。

其中许多主题都在线涵盖,但还有其他内在的东西,如导航结构、内部链接、网站架构等,它们的贡献与任何“技巧”或“设备”一样多。

于 2011-01-23T23:28:42.967 回答
0

从好的网站获得许多链接到您的网站将使谷歌“蜘蛛”更快地到达您的网站。

此外,来自 Twitter 等社交网站的链接可以帮助爬​​虫访问您的网站(尽管 Twitter 链接不会传递“链接汁”——蜘蛛仍然会通过它们)。

最后一件事,定期更新您的内容,将内容视为“Google Spider Food”。如果蜘蛛会来到你的网站,并且不会找到新的食物,它们不会很快再回来,如果每次它们来,都有新的食物,它们会来很多。例如,文章目录每天会被索引数次。

于 2011-01-23T13:04:10.097 回答