我有一个地理位置社交媒体帖子的数据集,我试图按user_id
大于1的频率(发布2次或更多次的用户)过滤。我想过滤这个,以便我可以进一步清理我创建的轨迹数据。
示例代码:
# Import Data
data = pd.read_csv('path', delimiter=',', engine='python')
#print len(data),"rows"
#print data
# Create Data Fame
df = pd.DataFrame(data, columns=['user_id','timestamp','latitude','longitude'])
#print data.head()
# Get a list of unique user_id values
uniqueIds = np.unique(data['user_id'].values)
# Get the ordered (by timestamp) coordinates for each user_id
output = [[id,data.loc[data['user_id']==id].sort_values(by='timestamp')['latitude','longitude'].values.tolist()] for id in uniqueIds]
# Save outputs
outputs = pd.DataFrame(output)
#print outputs
outputs.to_csv('path', index=False, header=False)
我尝试使用df[].value_counts()
获取user_id的计数,然后在行output = [[......data['user_id']==id>1].....
中传递> 1但是,这不起作用。是否可以将user_id
的频率作为附加参数添加到代码中,并仅为这些用户提取信息?
示例数据:
user_id, timestamp, latitude, longitude
478134225, 3/12/2017 9:04, 38.8940974, -77.0276216
478103585, 3/12/2017 9:04, 38.882584, -77.1124701
478073193, 3/12/2017 9:07, 39.00027849, -77.09480086
476194185, 3/12/2017 9:14, 38.8048355, -77.0469214
476162349, 3/12/2017 9:16, 38.8940974, -77.0276216
478073193, 3/12/2017 9:05, 38.8549, -76.8752
477899275, 3/12/2017 9:08, 38.90181532, -77.03733586
477452890, 3/12/2017 9:08, 38.96117237, -76.95561893
478073193, 3/12/2017 9:05, 38.7188716, -77.1542684
答案 0 :(得分:4)
让我们尝试groupby
然后filter
方法只返回在过滤函数中评估为true的记录。在这种情况下,对于具有多个记录的组或user_id,返回True。
df.groupby('user_id').filter(lambda x: x['user_id'].count()>1)