我现在只是想知道如何备份一个包含 8000 多个图像的文件夹而不会超时,该文件夹总共包含大约 1.5gb 的数据,我们需要经常备份自己。
我已经尝试过 PHP 中提供的 zip 功能,但是由于需要备份大量文件,它只是使请求超时,但是它确实可以处理少量的工作。
我正在尝试通过 HTTP 请求运行此脚本,是否会将其通过 Cronjob 忽略超时?
有人有什么建议吗?
我不会为此使用php。
如果你在 linux 上,我会设置一个 cron 作业并定期运行像 rsync 这样的程序。
关于 rsync的一个很好的介绍。
编辑:如果您确实想要/需要采用 php 方式,您也可以考虑只复制而不是使用 zip。zip
通常不会对图像做太多事情,如果您已经有数据库,则可以根据数据库检查当前目录并进行差异备份(只需复制新文件)。这样,只有您的初始备份需要很长时间。
您可以发布代码以便我们对其进行优化,除此之外,您应该更改您的 php.ini(配置文件)并删除/增加超时(您的脚本可以在您的服务器上运行的最长时间)