我在Ubuntu工作站上运行R,其中包含8个虚拟内核和8 Gb内存。我希望经常使用多核软件包来并行使用8个核心;但是我发现整个R过程重复了8次。 由于R实际上似乎使用的内存比gc中报告的多得多(即使在gc()之后也是如此),这意味着即使相对温和的内存使用(一个200Mb对象)也会在重复8次时变得难以处理内存。 我调查了bigmemory让子进程共享相同的内存空间;但它需要对我的代码进行一些重大改写,因为它不处理数据帧。
有没有办法在分叉前让R尽可能精简,即让OS回收尽可能多的内存?
编辑: 我想我明白现在发生了什么。问题不在我想象的地方 - 父线程中存在且未被操纵的对象不会重复八次。相反,我的问题来自于我正在使每个子进程执行的操作的性质。每个人必须操纵一个具有数十万个级别的重要因素,我认为这个是内存密集的位。结果,确实存在总存储器负载与核心数成比例的情况;但没有我想象的那么戏剧化。 我学到的另一个教训是,有4个物理内核+超线程的可能性,超线程实际上对于R来说通常不是一个好主意。增益很小,内存成本可能非常重要。所以我从现在开始研究4核。
对于那些想要试验的人来说,这就是我运行的代码类型:
# Create data
sampdata <- data.frame(id = 1:1000000)
for (letter in letters) {
sampdata[, letter] <- rnorm(1000000)
}
sampdata$groupid = ceiling(sampdata$id/2)
# Enable multicore
library(multicore)
options(cores=4) # number of cores to distribute the job to
# Actual job
system.time(do.call("cbind",
mclapply(subset(sampdata, select = c(a:z)), function(x) tapply(x, sampdata$groupid, sum))
))
答案 0 :(得分:17)
您是否尝试过data.table?
> system.time(ans1 <- do.call("cbind",
lapply(subset(sampdata,select=c(a:z)),function(x)tapply(x,sampdata$groupid,sum))
))
user system elapsed
906.157 13.965 928.645
> require(data.table)
> DT = as.data.table(sampdata)
> setkey(DT,groupid)
> system.time(ans2 <- DT[,lapply(.SD,sum),by=groupid])
user system elapsed
186.920 1.056 191.582 # 4.8 times faster
> # massage minor diffs in results...
> ans2$groupid=NULL
> ans2=as.matrix(ans2)
> colnames(ans2)=letters
> rownames(ans1)=NULL
> identical(ans1,ans2)
[1] TRUE
你的例子非常有趣。它相当大(200MB),有很多组(1/2万),每组很小(2行)。 191s可能会有很大改善,但至少它是一个开始。 [2011年3月]
现在,这个成语(即lapply(.SD,...)
)已经得到了很大改善。使用v1.8.2,并且在比上述测试更快的计算机上,以及最新版本的R等,这里是更新的比较:
sampdata <- data.frame(id = 1:1000000)
for (letter in letters) sampdata[, letter] <- rnorm(1000000)
sampdata$groupid = ceiling(sampdata$id/2)
dim(sampdata)
# [1] 1000000 28
system.time(ans1 <- do.call("cbind",
lapply(subset(sampdata,select=c(a:z)),function(x)
tapply(x,sampdata$groupid,sum))
))
# user system elapsed
# 224.57 3.62 228.54
DT = as.data.table(sampdata)
setkey(DT,groupid)
system.time(ans2 <- DT[,lapply(.SD,sum),by=groupid])
# user system elapsed
# 11.23 0.01 11.24 # 20 times faster
# massage minor diffs in results...
ans2[,groupid:=NULL]
ans2[,id:=NULL]
ans2=as.matrix(ans2)
rownames(ans1)=NULL
identical(ans1,ans2)
# [1] TRUE
sessionInfo()
R version 2.15.1 (2012-06-22)
Platform: x86_64-pc-mingw32/x64 (64-bit)
locale:
[1] LC_COLLATE=English_United Kingdom.1252 LC_CTYPE=English_United Kingdom.1252
[3] LC_MONETARY=English_United Kingdom.1252 LC_NUMERIC=C
[5] LC_TIME=English_United Kingdom.1252
attached base packages:
[1] stats graphics grDevices datasets utils methods base
other attached packages:
[1] data.table_1.8.2 RODBC_1.3-6
答案 1 :(得分:2)
我在Ubuntu 64位R上尝试过的事情,按成功顺序排列:
正如您所做的那样使用更少的内核。
将mclapply作业拆分为多个部分,并使用带有append = TRUE的DBI将部分结果保存到数据库中。
经常使用rm
功能和gc()
我已经尝试了所有这些,并且mclapply在运行时仍然开始创建越来越大的进程,这使我怀疑每个进程都保留了它真正不需要的某种剩余内存。
P.S。我使用的是data.table,似乎每个子进程都复制data.table。