我不确定这是否应该使用 cron 作业或 rake 任务来实现。
有一个由第三方提供的大型压缩文件 (250MB+),每周更新一次。我无法将其下载到本地计算机并每周上传到服务器以替换旧数据。无论如何我可以编写这样的工作流程:
- 从此 URL 下载压缩文件:
http://download.abc.com/data.zip
每周日凌晨 4 点。 - 解压到
data
. - 将文件夹、其子文件夹和内容移动到
public/data
旧的public/data
.
非常感谢。
这听起来像一个 bash 脚本。安装它crontab -e
。
#!/bin/bash
cd /tmp
mkdir data
cd data
wget http://download.abc.com/data.zip
unzip data.zip
rm -rf /public/data/*
mv data/* /public/data/
chown -R www-data:www-data /public/data/
没有测试它,但它应该这样做,你想要什么。不要忘记使所有者/组适应www-data:www-data
您自己的需求。