我的 scrapyd 每天同时处理 200 只蜘蛛。昨天,服务器崩溃了,因为 RAM 达到了上限。
我正在使用scrapyd默认设置
[scrapyd]
http_port = 6800
debug = off
#max_proc = 1
eggs_dir = /var/lib/scrapyd/eggs
dbs_dir = /var/lib/scrapyd/dbs
items_dir = /var/lib/scrapyd/items
logs_dir = /var/log/scrapyd
这是安排所有蜘蛛的代码:
url = 'http://localhost:6800/schedule.json'
crawler = self.crawler_process.create_crawler()
crawler.spiders.list()
for s in crawler.spiders.list():
values = {'project' : 'myproject', 'spider' : s}
data = urllib.urlencode(values)
req = urllib2.Request(url, data)
response = urllib2.urlopen(req)
如何优化 scrapyd 设置以处理 200 多个蜘蛛?
谢谢