我有一个名为客户的表,我想显示某人基于用户ID注册或购买商品的次数。
目标是要有一个表,显示基于用户ID的registration_complete和购买的总和
这是我编写的代码。不幸的是,并非所有列都显示
new_file= new_data.groupby(['userid'])
['Registration_Complete','Purchase'].agg('sum')
new_file.head(5)
这是我用来确定注册信息并根据用户ID购买的表格
Event_day timestamp install userid registration purchase
1/1/1900 1/1/1900 16:10 yes 555221 1 0
1/1/1900 1/1/1900 16:12 yes 555221 1 1
2/19/2010 1/19/2010 16:40 no 533211 0 1
2/19/2010 1/19/2016 16:53 yes 533211 0 1
2/20/2017 2/20/2017 15:46 yes 53200 1 0
3/15/2017 3/15/2018 15:48 yes 53200 1 0
3/15/2017 3/15/2018 20:14 yes 53200 1 0
我想要可以给我总和的东西
Event_day timestamp install userid registration purchase
1/1/1900 1/1/1900 16:10 yes 555221 2 0
2/19/2010 1/19/2016 16:53 yes 533211 0 2
3/15/2017 3/15/2018 20:14 yes 53200 5 0
答案 0 :(得分:1)
IIUC,您可以保留将其他格传递到first
的其他列的last
或agg
值
agg = {'Event_day': 'last', 'timestamp': 'last', 'install': 'last', 'registration': 'sum', 'purchase': 'sum'}
df.groupby('userid').agg(agg).reset_index()
userid Event_day timestamp install registration purchase
0 53200 3/15/2017 3/15/2018 20:14 yes 3 0
1 533211 2/19/2010 1/19/2016 16:53 yes 0 2
2 555221 1/1/1900 1/1/1900 16:12 yes 2 1
请记住,几个答案可能是正确的,我发现在它们之间进行性能测试很有趣
时间
dfg1 = df.groupby("userid")["install", "timestamp", "Event_day"].max()
dfg2 = df.groupby("userid").sum()
pd.concat([dfg1, dfg2], axis=1)
每个循环38.5 ms±393 µs(平均±标准偏差,共运行7次,每个循环10个循环)
first_other_columns = df[['Event_day', 'timestamp', 'install', 'userid']].drop_duplicates(['userid'], keep='first')
grouped = df.groupby(['userid']).sum().reset_index()
pd.merge(grouped, first_other_columns, on=['userid'])
每个循环11.3 ms±100 µs(平均±标准偏差,共运行7次,每个循环100个循环)
agg = {'Event_day': 'last', 'timestamp': 'last', 'install': 'last', 'registration': 'sum', 'purchase': 'sum'}
df.groupby('userid').agg(agg).reset_index()
每个循环6.85 ms±62.5 µs(平均±标准偏差,共运行7次,每个循环100个)
答案 1 :(得分:0)
您可以使用以下内容:
<dependency>
<groupId>com.amazonaws</groupId>
<artifactId>aws-java-sdk-dynamodb</artifactId>
<version> LATEST </version>
</dependency>
这将允许您保留第一个时间戳记event_day并安装和分组用户ID。
让我知道!希望对您有所帮助。 BR
答案 2 :(得分:0)
您希望其他数据列发生什么?这样的事情似乎通过获取其他列的最大值来接近您想要的东西。
dfg1 = df.groupby("userid")["Event_day", "timestamp", "install"].max()
dfg2 = df.groupby("userid").sum()
pd.concat([dfg1, dfg2], axis=1)
输出
Event_day timestamp install registration purchase
userid
53200 3/15/2018 20:14 yes 3 0
533211 1/19/2016 16:53 yes 0 2
555221 1/1/1900 16:12 yes 2 1