将cpu绑定的压缩作业分配给多台计算机?

时间:2010-04-03 18:21:28

标签: performance distributed archiving

前几天我需要在我们的网络上存档大量数据而且我很沮丧我没有立即利用多台机器的功能来加速这个过程。

据我所知,创建分布式作业管理系统是命令行归档工具的一次飞跃。

我现在想知道这种分布式性能方案最简单的解决方案是什么。自定义工具总是一个要求,还是有办法使用标准实用程序,并以某种方式透明地将其负载分配到更高级别?

感谢您的任何建议。

1 个答案:

答案 0 :(得分:1)

解决此问题的一种方法可能是使用分布式make系统在网络硬件上运行脚本。这是(或曾经是)GNU Make的(某些实现)的实验特征。 Solaris为同样的目的实现了一个dmake实用程序。

另一种更重要的方法可能是使用Condor来分发您的归档作业。但我认为你不会仅仅为每年两次的归档运行安装Condor,它更像是一个定期从网络硬件中清理备用周期的系统。

SCons构建系统,实际上是一个基于Python的替代品,可能会被说服通过网络处理。

然后,您可以使用脚本ssh在联网的PC上启动作业。

因此,有一些方法可以解决这个问题,而不必采用并行编程,并带来所有有趣的事情。