我在 debian 机器上安装了 scrapy 和 scrapyd。我使用 ssh 隧道登录到该服务器。然后我通过以下方式开始scrapyd:scrapyd
Scrapyd 启动正常,然后我打开另一个 ssh 隧道到服务器并安排我的蜘蛛: curl localhost:6800/schedule.json -d project=myproject -d spider=myspider
蜘蛛运行良好,一切都很好。
问题是当我退出启动 scrapyd 的会话时,scrapyd 停止运行。这阻止了我使用 cron 来调度带有 scrapyd 的蜘蛛,因为在启动 cronjob 时,scrapyd 没有运行。
我的简单问题是:我如何保持scrapyd 运行,以便在我退出ssh 会话时它不会关闭。