我在R中有以下数据框,其中显示了4个客户在四年内每年的购买数量。 member_since
变量显示客户加入公司的年份。
id<-c(1,2,3,4)
member_since<-c(2014,2016,2015,2014)
X2014<-c(2,0,0,3)
X2015<-c(3,0,4,2)
X2016<-c(3,2,3,4)
X2017<-c(2,3,6,0)
df<-data.frame(id,member_since,X2014,X2015,X2016,X2017)
id member_since X2014 X2015 X2016 X2017
1 2014 2 3 3 2
2 2016 0 0 2 3
3 2015 0 4 3 6
4 2014 3 2 4 0
现在,我正在尝试创建一个新变量mean_purchase
来计算每个客户每年的平均购买数量,从他/她加入的那一年起。这意味着,例如,对于customer 2
,购买总数应除以2,但对于customer 4
,购买金额应除以4.
id member_since X2014 X2015 X2016 X2017 mean_purchase
1 2014 2 3 3 2 2.5
2 2016 0 0 2 3 2.5
3 2015 0 4 3 6 4.33
4 2014 3 2 4 0 2.25
非常感谢您对此的帮助。
答案 0 :(得分:4)
我们可以使用apply
df$mean_purchase <- apply(df[3:6], 1, function(x) round(sum(x)/sum(cumsum(x > 0) > 0), 2))
df$mean_purchase
#[1] 2.50 2.50 4.33 2.25
或使用rowCumsums
matrixStats
library(matrixStats)
rowSums(df[3:6])/rowSums(rowCumsums(+(df[3:6] > 0)) > 0)
答案 1 :(得分:2)
使用apply
df$mean_purchase <- apply(df[3:6], 1, function(x) mean(x[min(which(x != 0)):length(x)]))
df$mean_purchase
# [1] 2.500000 2.500000 4.333333 2.250000
答案 2 :(得分:2)
根据akrun的回答,如果您想要包含客户加入该计划但在第一年没有购买任何东西的情况,请使用mapply
,这是一个小小的概括。
mapply(function(x,y) round(mean(unlist(df[x,(3+y):6])),2),
1:nrow(df), df$member_since - 2014)
# [1] 2.50 2.50 4.33 2.25
答案 3 :(得分:0)
我们将NA
替换为不相关的零(我建议您按照这种方式保留它们),然后我们使用rowMeans
。
df[-(1:2)][t(apply(df[-(1:2)],1,cumsum))==0] <- NA
df$mean_purchase <- rowMeans(df[-(1:2)],na.rm=T)
# id member_since X2014 X2015 X2016 X2017 mean_purchase
# 1 1 2014 2 3 3 2 2.500000
# 2 2 2016 NA NA 2 3 2.500000
# 3 3 2015 NA 4 3 6 4.333333
# 4 4 2014 3 2 4 0 2.250000
# If you really don't want to keep NAs :
df[is.na(df)] <- 0
答案 4 :(得分:0)
选项是使用tidyr::gather
和dplyr::filter
来确保仅mean
之后的年份计算member_since
。实施可以是:
library(tidyverse)
df %>% gather(year, value, -id, -member_since) %>%
filter(member_since <= as.numeric(gsub("^X(\\d+)","\\1",year))) %>%
group_by(id) %>%
summarise(mean = mean(value)) %>%
right_join(df, by="id") %>%
select(-mean, mean) %>% as.data.frame()
# id member_since X2014 X2015 X2016 X2017 mean
# 1 1 2014 2 3 3 2 2.50
# 2 2 2016 0 0 2 3 2.50
# 3 3 2015 0 4 3 6 4.33
# 4 4 2014 3 2 4 0 2.25