我已将我的 scrapy 升级到 0.18.4 版,但我发现以前为每个蜘蛛设置单独的日志文件的脚本现在不起作用:
#spider/toy_spider.py
def __init__(self,name=None,**kwargs):
LOG_FILE = "log/production_%s.log" % (self.name)
log.log.defaultObserver = log.log.DefaultObserver()
log.log.defaultObserver.start()
log.started = False
log.start(LOG_FILE)
super(MySpider, self).__init__(name, **kwargs)
它适用于scrapy 0.14.4,但不适用于0.18.4。当我运行“scrapy crawl toy_spider”时,它似乎处于无限循环中,消息如下所示:
2013-10-12 19:14:49-0500 [-] ERROR: 2013-10-12 19:14:49-0500 [-] ERROR: 2013-10-12 19:14:49-0500 [-] ERROR: 2013-10-12 19:14:49-0500 [-] ERROR: 2013-10-12 19:14:49-0500 [-] ERROR: 2013-10-12 19:14:49-0500 [PopAppAnnie4Itune] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)
我必须手动终止该过程。