我有一个熊猫系列如下:
2014-05-24 23:59:49 1.3
2014-05-24 23:59:50 2.17
2014-05-24 23:59:50 1.28
2014-05-24 23:59:51 1.30
2014-05-24 23:59:51 2.17
2014-05-24 23:59:53 2.17
2014-05-24 23:59:58 2.17
Name: api_id, Length: 483677
我正在尝试计算每个ID每天的频率。 现在我正在这样做:
count = {}
for x in apis.unique():
count[x] = apis[apis == x].resample('D','count')
count_df = pd.DataFrame(count)
这给了我想要的东西:
... 2.13 2.17 2.4 2.6 2.7 3.5(user) 3.9 4.2 5.1 5.6
timestamp ...
2014-05-22 ... 391 49962 3727 161 2 444 113 90 1398 90
2014-05-23 ... 450 49918 3861 187 1 450 170 90 629 90
2014-05-24 ... 396 46359 3603 172 3 513 171 89 622 90
但如果没有for循环,有没有办法呢?
答案 0 :(得分:2)
你可以使用value_counts
函数(docs),在groupby之后应用它(类似于你所做的resample('D')
,但resample期望汇总输出所以在这种情况下,我们必须使用更通用的groupby)。举个小例子:
In [16]: s = pd.Series([1,1,2,2,1,2,5,6,2,5,4,1], index=pd.date_range('2012-01-01', periods=12, freq='8H'))
In [17]: counts = s.groupby(pd.Grouper(freq='D')).value_counts()
In [18]: counts
Out[18]:
2012-01-01 1 2
2 1
2012-01-02 2 2
1 1
2012-01-03 2 1
6 1
5 1
2012-01-04 1 1
5 1
4 1
dtype: int64
要以所需格式获取此信息,您可以将其取消堆叠(将第二级行索引移动到列中):
In [19]: counts.unstack()
Out[19]:
1 2 4 5 6
2012-01-01 2 1 NaN NaN NaN
2012-01-02 1 2 NaN NaN NaN
2012-01-03 NaN 1 NaN 1 1
2012-01-04 1 NaN 1 1 NaN
注意:对于groupby(pd.Grouper(freq='D'))
的使用,您需要pandas 0.14。如果您使用的是旧版本,则可以使用groupby(pd.TimeGrouper(freq='D'))
获取完全相同的版本。这也与执行groupby(s.index.date)
类似(区别在于索引中有datetime.date
个对象。)