我想提高哈希大文件的性能,例如数十亿字节。
通常,您使用散列函数顺序散列文件的字节(例如,SHA-256,虽然我很可能会使用Skein,因此与读取文件所需的时间相比,散列会更慢来自[快速] SSD)。我们称之为方法1。
这个想法是在8个CPU上并行地散列多个1 MB的文件块,然后将连接的散列散列为单个最终散列。我们称之为方法2.
描绘这种方法的图片如下:
我想知道这个想法是否合理,以及在整个文件的范围内执行单个哈希时,“安全性”会丢失多少(就碰撞更可能而言)。
例如:
让我们使用SHA-2的SHA-256变体,并将文件大小设置为2 ^ 34 = 34,359,738,368字节。因此,使用简单的单一传递(方法1),我将获得整个文件的256位散列。
将其与:
进行比较使用并行散列(即方法2),我会将文件分成32,768个1 MB的块,使用SHA-256将这些块散列为32,768个256位(32字节)的哈希值,连接哈希并执行结果连接的1,048,576字节数据集的最终散列,以获得整个文件的最终256位散列。
方法2是否比方法1更不安全,因为碰撞更可能和/或可能?也许我应该将这个问题重新解释为:方法2是否使攻击者更容易创建一个哈希值与原始文件相同哈希值的文件,当然除了蛮力攻击因此更便宜的琐碎事实。 hash可以在N cpus上并行计算?
更新:我刚刚发现方法2中的构造与hash list的概念非常相似。然而,与方法1相比,前一句中链接引用的维基百科文章没有详细说明哈希列表在冲突机会方面的优越性或劣势,方法1是文件的普通旧哈希,只有 top hash 。
答案 0 :(得分:7)
基于块的散列(您的方法2)是一种在实践中使用的众所周知的技术:
就像你正在做的那样,这些方法再次采用块哈希和哈希列表,直到单个短哈希。由于这是一种成熟的做法,我认为它与顺序散列一样安全。
答案 1 :(得分:4)
一些现代哈希设计允许它们并行运行。见An Efficient Parallel Algorithm for Skein Hash Functions。如果您愿意使用新的(因此不太全面测试)哈希算法,这可能会为您提供多处理器计算机所需的速度提升。
Skein已经到了NIST SHA-3 competition的最后阶段,所以它还没有完全未经测试。
答案 2 :(得分:0)
我认为攻击者发现冲突要容易得多,因为生成哈希所需的时间是要散列的数据大小的函数。密码安全哈希的一个好处是,攻击者无法获取您的100Gb文件,找到他们想要变异的位置,在该块之前和之后散列所有内容,然后使用这些预先计算的值来快速获取哈希值在对他们感兴趣的位进行小/快排列后的整个文件。这是因为在散列算法中有一个重叠的滑动窗口。
简而言之,如果您编辑文件的中间部分,仍然需要散列整个文件以获得最终的校验和。因此,100Gb文件比100字节文件需要更长的时间来查找冲突。例外情况是编辑在文件末尾是无意义的,这就是为什么在大型文件的碰撞示例中经常出现“野外”的原因。
但是,如果将原始文件分解为块,则攻击速度现在是最小块(或要变异的块的大小)的函数。由于文件大小随着散列时间线性增加,每个排列/ MD5 100Gb文件大约需要2000秒,而1Mb大小允许攻击者每秒尝试50 <强> 。
解决方案是将文件分成重叠块,然后单独MD5那些块。结果散列将是从开始到结束顺序和结束到开始的散列的串联。现在发现碰撞需要对整个文件进行哈希处理 - 尽管是以并行方式。