为什么R的重复在排序数据上表现更好?

时间:2016-12-27 20:59:56

标签: r performance sorting duplicates

在比较Check if list contains another list in R的答案中比较两个函数的效率时,我偶然发现了一个有趣的结果。当向量很大时,排序会大大提高duplicated的效率。这令人惊讶,因为我从未注意到使用duplicated在我自己的工作中存在相当大的差异。事实上,对于我每天工作的尺寸,没有区别。观察:

set.seed(1007)
s1 <- sample(10^2, 10^3, replace = TRUE)
s1_sort <- sort(s1)
library(microbenchmark)
microbenchmark(dp=duplicated(s1), dp_sort=duplicated(s1_sort), times=1000)
Unit: microseconds
   expr    min      lq     mean  median      uq      max neval cld
     dp 16.459 16.9425 22.06371 17.2965 22.5050 1541.137  1000   a
dp_sort 17.007 17.5005 25.54953 17.8200 23.3655 1549.198  1000   a

如您所见,向量排序时的时间没有明显差异。然而,在非常大的向量上,结果是非常不同的。观察:

s2 <- sample(10^6, 10^7, replace = TRUE)
s2_sort <- sort(s2)
microbenchmark(dp=duplicated(s2), dp_sort=duplicated(s2_sort), times=100)
Unit: milliseconds
   expr      min       lq     mean   median       uq       max neval cld
     dp 816.6883 847.9231 869.6829 861.8210 882.3978 1019.6339   100   b
dp_sort 287.6779 305.4779 322.8830 315.1198 324.9249  449.1734   100  a 

快了近3倍!这导致我从兔洞开始,从这里开始:r-source.../duplicated.R。从这里我们看到duplicated打电话给.Internal(duplicated(x,...))。然后使用函数pryr::show_c_source(.Internal(duplicated(x)))和@joran建议的workaroundshow_c_source目前正在提出问题..请参阅Is 'show_c_source()' borken?),我们看到duplicated生成了致电do_duplicated。最后,显示duplicated的{​​{3}}(从第667行开始,到988结束)。似乎整个向量循环,然后发生一些散列:

724     /* count unique entries */
725     k = 0;
726     for (i = 0; i < n; i++)
727         if (LOGICAL(dup)[i] == 0)
728             k++;

776     /* Build a hash table, ignoring information on duplication */
777     static void DoHashing(SEXP table, HashData *d)

我并不完全理解所有代码,但似乎排序无关紧要。我们在任何一种情况下循环遍历整个向量(排序与非排序)并最终调用各种散列函数,这不应取决于向量是否排序。我最初的想法是某种分支预测正在进行(见heart),但从更新到this question,似乎这些事情不再重要。

发生了什么事?


修改

随着向量的大小和重复数量的增加,差距似乎也在增加。

set.seed(496)
s3 <- sample(10^6, 10^8, replace = TRUE)
s3_sort <- sort(s3)
microbenchmark(dp=duplicated(s3), dp_sort=duplicated(s3_sort), times = 10)
Unit: seconds
   expr       min        lq      mean    median        uq       max neval cld
     dp 12.149932 12.175665 12.848843 12.495599 12.719861 15.589190    10   b
dp_sort  2.395636  2.401837  2.706674  2.551375  2.677556  4.373653    10  a 

正如@alexis_laz所指出的,如果没有重复,排序的影响会大大减少。

s4 <- sample(10^8)
s4_sort <- sort(s4)
microbenchmark(dp=duplicated(s4), dp_sort=duplicated(s4_sort), times = 10)
Unit: seconds
   expr      min       lq     mean   median       uq       max neval cld
     dp 8.013995 8.130565 8.593626 8.197501 8.438703 10.639452    10   b
dp_sort 6.135788 6.158140 6.751101 6.256739 7.241381  8.913507    10  a 

1 个答案:

答案 0 :(得分:4)

主要因素是CPU缓存未命中率,并且随着大小的扩展,更加昂贵的页面错误。通过引用简单的哈希表来检查复制。如果要查询的哈希表部分已经在高速内存缓存中,那么这些查找要快得多。对于小向量,相应的哈希表将完全适合高速内存缓存,因此访问顺序并不重要,这是您在第一个基准测试中看到的。

对于较大的向量,只有哈希表的某些块在任何给定时间都适合缓存。如果重复是连续的,那么查找所需的散列表部分已经在高速缓存中用于后续查找。这就是为什么性能会因较大矢量的重复次数而增加。对于非常大的向量,哈希表甚至可能不完全适合可用的物理内存并被分页到磁盘,使得差异更加明显。

要对此进行测试,请使用原始帖子的s2向量及其排序版本,但也要测试只是将副本放在彼此旁边,否则未分类。

# samples as in original post
s2 <- sample(10^6, 10^7, replace = TRUE)
s2_sort <- sort(s2)

# in the same order as s2, but with duplicates brought together
u2 <- unique(s2)
t2 <- rle(s2_sort)
s2_chunked <- rep(u2,times=t2$length[match(u2,t2$values)])

我们也考虑只按哈希值排序。我将近似R中的哈希编码,但我们在这里处理的是双倍大小的值,而不是能够使用无符号长整数,因此我们无法使用按位运算。

# in the order of hash value
K <- ceiling(log2(length(s2)*2))
M <- 2^K
h <- ((3141592653 * s2) %% 2^32)/2^(32-K)
ho <- order(h)
s2_hashordered <- s2[ho]

我们希望看到s2_sorts2_chunked的效果相似,s2_hashordered的效果更好。在每种情况下,我们都试图最大限度地减少缓存未命中。

microbenchmark(
 duplicated(s2), 
 duplicated(s2_sort), 
 duplicated(s2_chunked),
 duplicated(s2_hashordered),
 times=10)

Unit: milliseconds
                       expr      min       lq     mean   median       uq      max neval cld
             duplicated(s2) 664.5652 677.9340 690.0001 692.3104 703.8312 711.1538    10   c
        duplicated(s2_sort) 245.6511 251.3861 268.7433 276.2330 279.2518 284.6589    10  b 
     duplicated(s2_chunked) 240.0688 243.0151 255.3857 248.1327 276.3141 283.4298    10  b 
 duplicated(s2_hashordered) 166.8814 169.9423 185.9345 185.1822 202.7478 209.0383    10 a