对于庞大的随机目录(1-10TB),有什么好的tar压缩算法吗?

时间:2018-12-17 17:57:31

标签: compression tar

我想在Linux PC上备份和压缩所有数据。所有这些文件的大小总计约为3.4 TB。我想用tar和一些压缩算法压缩它们。

我已经尝试了xz之类的算法,但是它们仅产生了10%的压缩率(丢失了100至300个演出)。

对于如此大量的数据,是否有任何算法可以产生20%到40%的压缩率?就算法(32 gig ram和4790k)而言,RAM和处理能力都不是我关心的问题。

1 个答案:

答案 0 :(得分:1)

xz已经是非常好的压缩器。看来您的数据根本不是很可压缩。没有魔术压缩器可以将性能提高2到4倍。从基于PPM的压缩器中,您可能会获得一点收获,但可能会有很多收获。

您唯一的希望是也许可以识别已经应用于数据的压缩,将其解压缩,然后以比原始压缩器更好的压缩方式进行重新压缩。