我有一个小的scrapy 扩展,它查看爬虫的stats 对象,如果爬虫抛出了某种类型的日志消息(例如WARNING、CRITICAL、ERROR),它会向我发送一封电子邮件。
这些统计信息可以通过蜘蛛统计对象 (crawler.stats.get_stats()) 访问,例如:
crawler.stats.get_stats().items()
[..]
'log_count/DEBUG': 9,
'log_count/ERROR': 2,
'log_count/INFO': 4,
[..]
如果我在 scrapinghub 上运行蜘蛛,日志统计信息不存在。还有很多其他方面(例如异常计数等),但缺少日志计数。有人知道如何将它们带到那里或如何在抓取中心上访问它们吗?
在蜘蛛关闭后,我还检查了“Dumping Scrapy stats”值。如果我在我的机器上运行它,日志计数就在那里,如果我在 scrapinghub 上运行它,日志计数就会丢失。