0

我不确定这是否应该使用 cron 作业或 rake 任务来实现。

有一个由第三方提供的大型压缩文件 (250MB+),每周更新一次。我无法将其下载到本地计算机并每周上传到服务器以替换旧数据。无论如何我可以编写这样的工作流程:

  1. 从此 URL 下载压缩文件:http://download.abc.com/data.zip每周日凌晨 4 点。
  2. 解压到data.
  3. 将文件夹、其子文件夹和内容移动到public/data旧的public/data.

非常感谢。

4

1 回答 1

0

这听起来像一个 bash 脚本。安装它crontab -e

#!/bin/bash
cd /tmp
mkdir data
cd data
wget http://download.abc.com/data.zip
unzip data.zip
rm -rf /public/data/*
mv data/* /public/data/
chown -R www-data:www-data /public/data/

没有测试它,但它应该这样做,你想要什么。不要忘记使所有者/组适应www-data:www-data您自己的需求。

于 2012-03-28T22:40:18.540 回答