0

大家好,有没有可以定期备份在线网站文件夹并将它们离线存储在本地系统上的备份软件。需要一些健壮的东西,如果有免费的东西可以完成这项工作,那就太好了:)


感谢您的链接 - 我有 ftp 访问权限及其我的网站及其与用户上传的文件共享网站,我想定期在网站上维护不时上传的文件的备份。只想自动化这个过程。我的本地系统是基于 Windows 的。

4

3 回答 3

0

如果您可以访问网络服务器,则可以通过电子邮件或 ftps 输出存档的 cronjob 来完成这项工作。

于 2009-06-02T09:31:01.777 回答
0

如果您指的是您将通过浏览器访问的网站(而不是作为网站管理员),您应该查看WGet。而且,如果您需要从 Windows 系统使用 WGet,请查看Cygwin

于 2009-06-02T09:26:58.117 回答
0

如果您在站点上没有 shell 访问权限,则可以使用 wget:

#!/bin/bash
export BCKDIR=`date -u +"%Y%m%dT%H%M%SZ"`
wget -m -np -P $BCKDIR http://www.example.com/path/to/dir

wget 选项:

  • -m - 镜像一切,跟随链接
  • -np - 不访问父目录(避免下载整个站点)
  • -P - 将文件存储在 $BCKDIR 以下

如果您有 shell 访问权限,则可以使用 rsync。一种方法是让这个循环在 screen(1) 会话中运行,并使用 ssh-agent 自动登录:

#!/bin/bash
while :; do
    export BCKDIR=`date -u +"%Y%m%dT%H%M%SZ"`
    rsync -az user@hostname:/path/to/dir $BCKDIR
    sleep 86400 # Sleep 24 hours
done

不确定您使用的是什么操作系统,但这应该在 *NIX 下运行良好。对于 MS Windows,还有 Cygwin。

于 2009-06-02T09:28:38.067 回答