这个问题适用于创建“宽”表,类似于您可以使用reshape2中的dcast创建的表。我知道之前已经讨论了很多次,但我的问题是如何使这个过程更有效率。我在下面提供了几个例子,这些例子可能会使问题看起来很冗长,但大多数只是基准测试的测试代码
从一个简单的例子开始,
> z <- data.table(col1=c(1,1,2,3,4), col2=c(10,10,20,20,30),
col3=c(5,2,2.3,2.4,100), col4=c("a","a","b","c","a"))
> z
col1 col2 col3 col4
1: 1 10 5.0 a # col1 = 1, col2 = 10
2: 1 10 2.0 a # col1 = 1, col2 = 10
3: 2 20 2.3 b
4: 3 20 2.4 c
5: 4 30 100.0 a
我们需要创建一个“宽”表,它将col4列的值作为列名,并为col1和col2的每个组合使用sum(col3)的值。
> ulist = unique(z$col4) # These will be the additional column names
# Create long table with sum
> z2 <- z[,list(sumcol=sum(col3)), by='col1,col2,col4']
# Pivot the long table
> z2 <- z2[,as.list((sumcol[match(ulist,col4)])), by=c("col1","col2")]
# Add column names
> setnames(z2[],c("col1","col2",ulist))
> z2
col1 col2 a b c
1: 1 10 7 NA NA # a = 5.0 + 2.0 = 7 corresponding to col1=1, col2=10
2: 2 20 NA 2.3 NA
3: 3 20 NA NA 2.4
4: 4 30 100 NA NA
我遇到的问题是,虽然上面的方法适用于较小的表,但实际上不可能在非常大的表上运行它们(除非你可以等待x小时)。
我相信这可能与这样一个事实有关:旋转/宽表的大小比原始表大得多,因为宽表中的每一行都有n列,对应于枢轴列的唯一值,无论是是否存在与该单元格对应的任何值(这些是上面的NA值)。因此,新表的大小通常是原始“长”表的2倍。
我的原始表有大约5亿行,大约有20个唯一值。我试图仅使用500万行来运行上面的内容并且它需要永远在R中(等待它完成的时间太长)。
为了进行基准测试,示例(使用500万行) - 使用生成多线程的生产rdbms系统在大约1分钟内完成。它使用单核使用KDB + / Q(http://www.kx.com)在大约8“秒内完成。这可能不是一个公平的比较,但给出一种感觉,即使用替代方法可以更快地完成这些操作。 KDB +没有稀疏行,因此它为所有单元分配内存,并且仍然比我尝试过的任何其他内容快得多。
我需要的是一个R解决方案 :)到目前为止,我还没有找到一种有效的方法来执行类似的操作。
如果您有经验并且可以反思任何替代/更优化的解决方案,我有兴趣了解相同的情况。下面提供了示例代码。您可以更改n的值以模拟结果。枢轴列(列c3)的唯一值已固定为25。
n = 100 # Increase this to benchmark
z <- data.table(c1=sample(1:10000,n,replace=T),
c2=sample(1:100000,n,replace=T),
c3=sample(1:25,n,replace=T),
price=runif(n)*10)
c3.unique <- 1:25
z <- z[,list(sumprice=sum(price)), by='c1,c2,c3'][,as.list((sumprice[match(c3.unique,c3)])), by='c1,c2']
setnames(z[], c("c1","c2",c3.unique))
谢谢,
答案 0 :(得分:5)
对于n=1e6
,dcast
使用普通dcast.data.table
大约需要10秒,library(reshape2)
dcast(z[, sum(price), by = list(c1, c2, c3)], c1 + c2 ~ c3)
# or with 1.8.11
dcast.data.table(z, c1 + c2 ~ c3, fun = sum)
大约需要4秒:
{{1}}