我正在尝试将函数应用于两个数据集df1
和df2
,其中df1
包含(a, b)
,可以是100万行,{{1} }包含df2
并且可以非常大,从大约100到大约10,000。我想在两个数据集的每个组合上应用函数(x, y, z)
,然后对第二个数据集求和。
foo
我用来应用此功能的代码(摘自@jlhoward How to avoid multiple loops with multiple variables in R)
foo <- function(a, b, x, y, z) a + b + x + y + z
df1 <- data.frame(a = 1:10, b = 11:20)
df2 <- data.frame(x= 1:5, y = 21:25, z = 31:35)
但是,当foo.new <- function(p1, p2) {
p1 = as.list(p1); p2 = as.list(p2)
foo(p1$a, p1$b, p2$x, p2$y, p2$z)
}
indx <- expand.grid(indx2 = seq(nrow(df2)), indx1 = seq(nrow(df1)))
result <- with(indx, foo.new(df1[indx1, ], df2[indx2, ]))
sums <- aggregate(result, by = list(rep(seq(nrow(df1)), each = nrow(df2))), sum)
变大(> 1000)时,我会快速耗尽内存以执行上面的df2
功能(运行带有32GB RAM的64位PC)。
我已经阅读了很多result
,但无法评估其中是否有一个有助于节省内存的功能。将取代data.table
并在with
步骤创建较小文件或在result
步骤创建expand.grid
的文件,这将创建迄今为止最大的文件。
答案 0 :(得分:4)
这是一个data.table解决方案:应该非常快:
library(data.table)
indx<-CJ(indx1=seq(nrow(df2)),indx2=seq(nrow(df1))) #CJ is data.table function for expand.grid
indx[,`:=`(result=foo.new(df1[indx1, ], df2[indx2, ]),Group.1=rep(seq(nrow(df1)), each = nrow(df2)))][,.(sums=sum(result)),by=Group.1]
Group.1 sums
1: 1 355
2: 2 365
3: 3 375
4: 4 385
5: 5 395
6: 6 405
7: 7 415
8: 8 425
9: 9 435
10: 10 445