我想从某些网站抓取有用的资源(如背景图片..)。这不是一项艰巨的工作,尤其是在诸如scrapy之类的出色项目的帮助下。
这里的问题是我不仅只想爬一次这个网站。我还想保持我的爬网长时间运行并爬网更新的资源。所以我想知道网络爬虫有什么好的策略来获取更新的页面吗?
这是我想到的一个粗略的算法。我将爬行过程分成几轮。每轮 URL 存储库都会为爬虫提供一定数量(如 10000)的 URL 进行爬取。然后下一轮。详细步骤如下:
- 爬虫将起始 URL 添加到 URL 存储库
- 爬虫向 URL 存储库请求最多 N 个 URL 进行爬取
- 爬虫获取 URL,并更新 URL 存储库中的某些信息,例如页面内容、获取时间以及内容是否已更改。
- 回到第 2 步
为了进一步说明,我仍然需要解决以下问题:如何确定网页的“刷新性”,即表示该网页已更新的概率?
由于这是一个悬而未决的问题,希望它会在这里带来一些富有成果的讨论。