我正在编写一个爬虫,为此我正在实现 robots.txt 解析器,我正在使用标准的 lib robotparser。
似乎robotsparser解析不正确,我正在使用 Google 的robots.txt调试我的爬虫。
(以下示例来自 IPython)
In [1]: import robotparser
In [2]: x = robotparser.RobotFileParser()
In [3]: x.set_url("http://www.google.com/robots.txt")
In [4]: x.read()
In [5]: x.can_fetch("My_Crawler", "/catalogs") # This should return False, since it's on Disallow
Out[5]: False
In [6]: x.can_fetch("My_Crawler", "/catalogs/p?") # This should return True, since it's Allowed
Out[6]: False
In [7]: x.can_fetch("My_Crawler", "http://www.google.com/catalogs/p?")
Out[7]: False
这很有趣,因为有时它似乎“工作”,有时它似乎失败了,我也尝试了来自 Facebook 和 Stackoverflow 的 robots.txt。这是robotpaser
模块的错误吗?还是我在这里做错了什么?如果是这样,是什么?
我想知道这个错误是否有任何相关