需要在大量文件上运行srm的想法

时间:2013-07-31 00:29:29

标签: linux bash unix centos rm

为了安全起见,我需要使用srm(安全删除)而不是rm删除一些文件:http://en.wikipedia.org/wiki/Srm_%28Unix%29

我目前已经将srm设置为对我需要删除的任何数据运行3次传递。我遇到的问题是srm在大量文件上的运行极其缓慢。例如,我试图删除一个150目录,我发现它只在1周内删除了10GB。

我知道srm会使用多个小文件运行缓慢,但目录深度也很重要吗?对于我需要每周删除的大多数数据,实际文件本身嵌套在各种深层子目录中。如果我在运行srm之前扁平化目录结构会不会有帮助?

以下是我正在研究的两种解决方法(可能是两者的组合),但我不知道他们会帮助多少:

  1. 在运行srm之前展平所有目录结构。这样,所有需要清除的文件都在同一个目标区域内。
  2. 在运行srm之前归档整个目录。这样,目标文件将是一个大的tar.gz文件。压缩数据可能需要一段时间,但不会像srm那样长。
  3. 有人对我能做什么有任何其他建议吗?其他一些人也使用了碎片,但结果相似,我们最终切换到srm。

1 个答案:

答案 0 :(得分:1)

对srm不太了解,但可能值得尝试:

find $mydir -type f -exec srm {} \;
find $mydir -type d -exec srm {} \;