我设置了从命令行完美运行的蜘蛛
$ scrapy crawl somesite
我用这个字符串制作了一个 shell 脚本,并通过 cronjob 运行它。但这是一个非常糟糕的主意,因为爬虫不会等到结束之前的爬虫爬虫。所以我得到了一些非常复杂的结果。所以我试图让爬虫通过
$ scrapy server
$ curl http://localhost:6800/schedule.json -d project=myproject -d spider=spider2
并且没有结果。爬虫不运行。我不知道如何安排蜘蛛运行(例如每 10 分钟一次)。