现在我正在使用
分析一些数据row = dataset[dataset$id == id1,]
和
row = subset(dataset,id == id1)
其中所有id值都是整数。
然而,在使用更大的数据集时,我的结果令人失望。有什么方法可以加快这项具体任务吗?
答案 0 :(得分:6)
使用data.table
,我们可以设置一个列,该列按照递增顺序指定的列对数据进行物理重新排序,这样我们就可以使用二进制搜索进行子集化。
library(data.table)
setkey(setDT(data1), id)[.(id1)]
或者,从data.table版本1.9.4+开始,DT[x == .]
和DT[x %in% .]
形式的子集在内部进行优化以自动创建索引,然后在连续运行时使用二进制搜索来进行子集化,这是非常快的(见下面的基准)。
setDT(data1)[id == id1] # internally optimised to generate index automatically
有关详细信息,请查看this post。
set.seed(24)
data1 <- data.frame(id= sample(1:6, 25, replace=TRUE), val=rnorm(25))
id1 <- 5L
PS:setDT()
通过引用将data.frame转换为data.table。
set.seed(29)
dat2 <- data.frame(id= sample(1:100, 1e8, replace=TRUE), val=rnorm(1e8))
# data.frame subset in base R
system.time(dat2[dat2$id == id1,])
# user system elapsed
# 6.287 0.646 7.081
# base R like syntax on data.table; create index and subset using binary search
system.time(setDT(dat2)[id == id1])
# user system elapsed
# 0.646 0.232 0.889
# successive runs are incredibly fast!
# 0.037 0.002 0.039
# 0.040 0.002 0.042
# alternatively set key once
system.time(setkey(setDT(dat2), id))
# 2.908 0.499 3.440
# and use binary search explicitly
system.time(dat2[.(id1)])
# user system elapsed
# 0.009 0.002 0.012
答案 1 :(得分:3)
以下是base([)和dplyr(filter)之间的比较:
set.seed(29)
dat2 <- data.frame(id= sample(1:6, 3e6, replace=TRUE), val=rnorm(3e6))
library(dplyr)
system.time(dplyr::filter(dat2, id==5))
user system elapsed
0.029 0.004 0.033
system.time(dat2[dat2$id==5,])
user system elapsed
0.236 0.012 0.248