我有一个VPS,有几十个网站,我需要定期备份,让我们在一周内说两次(星期日晚上11点和星期三晚上11点)。
我对服务器管理和用户exp的经验很少。使用Linux(我尝试使用Linux 2年)。
我需要备份的文件位于/ var / www / hosting / webXX / www / dirs(XX表示web1,web2,... web50)。编辑:在webXX中dir更多dirs,我只需要这个(www)。
我试图找到一个bash脚本,但没有结果。在bash脚本中我没有exp。然后我只用cron调用脚本。
星期一和星期四我想把一个压缩文件下载到我的电脑上(手动,如果不能自动显示)。
感谢。 罗马
修改: 好吧,我试过没有bash的解决方案。 在命令行中通过ssh,
ssh root@server '( cd /var/www/hosting/web*/www/ && tar cfz - . )' > backup.tar.gz
不是自动的(比如bash脚本),我必须手动启动它。
问题:它只需要第一个网页,而不是递归所有网页。
有什么想法吗?
答案 0 :(得分:1)
这样的事情应该有效:
tar czf backup.tar.gz `ls /www/hosting | grep \.com$ | sed 's/$/\/www/g' | sed 's/^/\/www\/hosting\//g'`