天气"事件"根据熊猫的时差分组

时间:2016-08-11 01:04:20

标签: python pandas

我有一个表面天气观测数据框(fzraHrObs),由车站标识码(' usaf')和日期组织。 fzraHrObs有几列天气数据。站点代码和日期(日期时间对象)如下所示:

usaf      dat
716270    2014-11-23 12:00:00
          2015-12-20 08:00:00
          2015-12-20 12:00:00
716280    2015-12-19 08:00:00
          2015-12-19 09:00:00

我想将这些观察结果分组到'事件'通过站,其中在先前观察之后6小时发生的观察在同一事件中计数。然后,我想将事件的开始时间,结束时间和事件数量输出到数据帧。鉴于上面的示例数据,我希望输出看起来像这样:

usaf      eventNum   start                end                     count
716270    1          2014-11-23 12:00:00  2014-11-23 12:00:00     1   
          2          2015-12-20 09:00:00  2015-12-20 12:00:00     2     
716280    1          2015-12-19 08:00:00  2015-12-19 09:00:00     2 

我目前正在使用for / if循环和dicts进行此操作,但我正在努力将事情转换为pandas,因为它的效率要高得多。

我最初的想法是在按行分组的每一行上做一个数据差异,并在几个小时内得到它,所以我确实有一个列'差异'这显示了这一点。我无法弄清楚如何获得事件开始/结束/持续时间而不会恢复到丑陋的状态和if循环。我猜测涉及fzraHrObs [fzraHrObs [' diff']> = 6]的事情也将涉及?

1 个答案:

答案 0 :(得分:2)

评论中的答案意味着很容易避免循环,因为您只需要回顾上一个事件。

df['new_event'] = df.groupby('usaf')['dat'].apply(lambda s: s.diff().dt.seconds > 6*3600)

输出:

     usaf                 dat new_event
0  716270 2014-11-23 12:00:00     False
1  716270 2015-12-20 08:00:00      True
2  716270 2015-12-20 12:00:00     False
3  716280 2015-12-19 08:00:00     False
4  716280 2015-12-19 09:00:00     False

增加True值的事件计数:

df['event'] = df.groupby('usaf')['new_event'].cumsum().astype('int')

输出:

     usaf                 dat new_event  event
0  716270 2014-11-23 12:00:00     False      0
1  716270 2015-12-20 08:00:00      True      1
2  716270 2015-12-20 12:00:00     False      1
3  716280 2015-12-19 08:00:00     False      0
4  716280 2015-12-19 09:00:00     False      0

现在按事件分组,并使用agg应用多个功能,包括firstlast以获取开始和结束日期:

df.groupby(['usaf', 'event'])['dat'].agg(['first', 'last', 'count'])

输出:

                           first                last  count
usaf   event                                               
716270 0     2014-11-23 12:00:00 2014-11-23 12:00:00      1
       1     2015-12-20 08:00:00 2015-12-20 12:00:00      2
716280 0     2015-12-19 08:00:00 2015-12-19 09:00:00      2

剩下要做的就是清理指数!