需要自动化网站文件夹备份系统吗?有什么建议?

时间:2009-06-02 09:17:15

标签: web download backup-strategies

大家好,有任何备份软件可以定期备份在线网站文件夹,并将它们离线存储在本地系统上。需要一些强大的东西,如果有免费的东西可以完成这项工作会很好:)


感谢您的链接 - 我有ftp访问权限和我的网站以及一些用户上传的文档共享网站,我想在网站上定期维护上传的文件备份基础。只是想自动化这个过程。我的本地系统是基于Windows的。

3 个答案:

答案 0 :(得分:0)

如果您指的是您将从浏览器(而不是网站管理员)访问的网站,则应查看WGet。而且,如果您需要从Windows系统使用WGet,请结帐Cygwin

答案 1 :(得分:0)

如果您在站点没有shell访问权限,则可以使用wget:

#!/bin/bash
export BCKDIR=`date -u +"%Y%m%dT%H%M%SZ"`
wget -m -np -P $BCKDIR http://www.example.com/path/to/dir

wget选项:

  • -m - 镜像一切,按照链接
  • -np - 不访问父目录(避免下载整个站点)
  • -P - 将文件存储在$ BCKDIR以下

如果您有shell访问权限,则可以使用rsync。一种方法是在屏幕(1)会话中运行此循环,并使用ssh-agent自动登录:

#!/bin/bash
while :; do
    export BCKDIR=`date -u +"%Y%m%dT%H%M%SZ"`
    rsync -az user@hostname:/path/to/dir $BCKDIR
    sleep 86400 # Sleep 24 hours
done

不确定你正在使用什么操作系统,但这应该在* NIX下正常运行。对于MS Windows,有Cygwin。

答案 2 :(得分:0)

如果您有权访问网络服务器,那么通过电子邮件发送或删除存档的cronjob就能完成这项工作。