用不可靠的数据汇总data.table

时间:2013-04-24 19:43:52

标签: r data.table

我有data.table个事件记录,例如用户ID,居住国家/地区和事件。 如,

dt <- data.table(user=c(rep(3, 5), rep(4, 5)),
                 country=c(rep(1,4),rep(2,6)),
                 event=1:10, key="user")

正如您所看到的,数据有些损坏:事件5报告用户3在国家2(或者他旅行过 - 这对我来说无关紧要)。 所以当我尝试总结数据时:

dt[, country[.N] , by=user]
   user V1
1:    3  2
2:    4  2

我为用户3弄错了国家/地区。 理想情况下,我希望为用户提供最常见的国家/地区 他在那里度过的时间百分比:

   user country support
1:    3       1     0.8
2:    4       2     1.0

我该怎么做?

实际数据有~10 ^ 7行,因此解决方案必须扩展(这就是我使用data.table而不是data.frame的原因。)

2 个答案:

答案 0 :(得分:7)

另一种方式:

编辑。 table(.)是罪魁祸首。将其更改为完成data.table语法。

dt.out<- dt[, .N, by=list(user,country)][, list(country[which.max(N)], 
               max(N)/sum(N)), by=user]
setnames(dt.out, c("V1", "V2"), c("country", "support"))
#    user country support
# 1:    3       1     0.8
# 2:    4       2     1.0

答案 1 :(得分:4)

使用plyr的{​​{1}}功能:

count

想法是计算每个用户的国家/地区,按最大频率排序,然后获取您喜欢的数据。

感谢@mnel提供的更明智的答案,它不使用额外的功能:

dt[, count(country), by = user][order(-freq),
                                list(country = x[1],
                                     support = freq[1]/sum(freq)),
                                by = user]
#   user country support
#1:    4       2     1.0
#2:    3       1     0.8