我创建了一个普通和siple备份脚本,只备份某些文件和文件夹。
tar -zcf $DIRECTORY/var.www.tar.gz /var/www
tar -zcf $DIRECTORY/development.tar.gz /development
tar -zcf $DIRECTORY/home.tar.gz /home
现在这个脚本运行大约30分钟然后给我以下错误
gzip: stdout: File too large
我可以使用任何其他解决方案来使用shell脚本备份我的文件或解决此错误的方法吗?我很感激任何帮助。
答案 0 :(得分:13)
文件太大是来自libc的错误消息:输出已超出文件系统的文件大小限制。
所以这不是 gzip 问题。
选项:使用其他文件系统或使用拆分:
tar czf - www|split -b 1073741824 - www-backup.tar.
创建备份。
从多个部分恢复:
cat www-backup.tar.*|gunzip -c |tar xvf -
答案 1 :(得分:2)
您备份的文件系统是否可以支持大文件?
具体来说,FAT32在单个文件中的限制为~4GB,其他文件系统也有类似限制。
如果您的备份运行30分钟,则该文件很容易变得那么大。
答案 2 :(得分:0)
使用其他压缩实用程序,例如compress或bzip2