我正在使用 Django Dynamic Scraper 构建一个基本的网络爬虫。我已经完成了 99% 的工作。它与 Celery 和 Scrapyd 一起在开发中完美运行。任务被完美地发送和完成。
至于生产,我很确定我的设置正确:我正在使用 Supervisor 在我的 VPS 上运行 Scrapyd 和 Celery。他们都指向正确的virtualenv安装等......
以下是我如何知道它们都为项目设置得很好:当我通过 SSH 连接到我的服务器并使用 manage.py shell 执行 celery 任务时,它会返回一个 Async 任务,然后执行该任务。结果出现在数据库中,我的 scrapyd 和 celery 日志都显示了正在处理的任务。
问题是我的计划任务没有被自动触发 - 尽管在开发中完美地工作。
# django-celery settings
import djcelery
djcelery.setup_loader()
BROKER_URL = 'django://'
CELERYBEAT_SCHEDULER = 'djcelery.schedulers.DatabaseScheduler'
我的主管配置:
芹菜配置:
[program:IG_Tracker]
command=/home/dean/Development/IG_Tracker/venv/bin/celery --
app=IG_Tracker.celery:app worker --loglevel=INFO -n worker.%%h
directory=/home/dean/Development/IG_Tracker/
user=root
numprocs=1
stdout_logfile=/home/dean/Development/IG_Tracker/celery-worker.log
stderr_logfile=/home/dean/Development/IG_Tracker/celery-worker.log
autostart=true
autorestart=true
startsecs=10
; Need to wait for currently executing tasks to finish at shutdown.
; Increase this if you have very long running tasks.
stopwaitsecs = 600
killasgroup=true
priority=998
Scrapyd 配置:
[program:scrapyd]
directory=/home/dean/Development/IG_Tracker/instagram/ig_scraper
command=/home/dean/Development/IG_Tracker/venv/bin/scrapyd
environment=MY_SETTINGS=/home/dean/Development/IG_Tracker/IG_Trackersettings.py
user=dean
autostart=true
autorestart=true
redirect_stderr=true
numprocs=1
stdout_logfile=/home/dean/Development/IG_Tracker/scrapyd.log
stderr_logfile=/home/dean/Development/IG_Tracker/scrapyd.log
startsecs=10
我尽可能地关注文档并使用推荐的部署工具(例如scrapyd-deploy 等......)。此外,当我在服务器上手动运行 celery 和 scrapyd 时(就像在开发中那样),一切正常。只是当两者使用主管运行时。
我可能缺少某些设置或其他设置,这些设置会阻止存储在 SQLite DB 中的 celery 任务在生产时被 celery/scrapyd 自动拾取和运行。