使用gzip或zip备份网站时Apache会挂起/超时吗?

时间:2014-01-17 16:16:59

标签: apache process timeout gzip

我在专用的Ubuntu网络服务器上运行一些网站。如果我没记错的话,它有8个核心,16GB内存,并作为64位Ubuntu运行。内容和文件可以快速传送到Web浏览器。一切似乎都是梦想......直到我运行gzip或zip来备份一个8.6GB大小的网站。

运行gzip或zip时,Apache停止传送内容。在压缩过程完成之前,将传递内部服务器错误消息。在此过程中,我可以通过ssh无延迟地登录并运行top命令。我可以看到zip进程占用了大约50%的CPU(我猜这是单个CPU的50%,而不是全部8个?)。

起初我认为这可能是一个日志问题,Apache日志越来越失控,不想被搞砸。日志文件不到5MB,当它们达到5MB时会被轮换。另一个当前的想法是Apache只想在一个CPU上运行并让任何其他进程起带头作用。不确定在哪里寻找解决方案。

有关如何解决此问题的任何想法?在备份发生时取出我的所有站点不是一种选择,我似乎无法在我的本地计算机上重现此问题(授予,它是不同的硬件和配置)。我希望这个问题不要模糊。我很乐意根据需要提供更多详细信息。

提前感谢你的大脑!

1 个答案:

答案 0 :(得分:0)

我建议在“ionice”命令下运行备份脚本。它有助于防止httpd从I / O中消失。