我有一些DataFrame
的交易。我想根据其item
和time
列值对这些交易进行分组:目标是将彼此相隔1小时的项目分组。因此,我们在下一次观察时开始一个新的小组,而不是在观察之前的一小时内(参见start time
DataFrame
中的B
栏)。
以下是数据:我想将A
转换为B
。
A=
item time result
A 2016-04-18 13:08:25 Y
A 2016-04-18 13:57:05 N
A 2016-04-18 14:00:12 N
A 2016-04-18 23:45:50 Y
A 2016-04-20 16:53:48 Y
A 2016-04-20 17:11:47 N
B 2016-04-18 15:24:48 N
C 2016-04-23 13:20:44 N
C 2016-04-23 14:02:23 Y
B=
item start time end time Ys Ns total count
A 2016-04-18 13:08:25 2016-04-18 14:08:25 1 2 3
A 2016-04-18 23:45:50 2016-04-18 00:45:50 1 0 1
A 2016-04-20 16:53:48 2016-04-20 17:53:48 1 1 2
B 2016-04-18 15:24:48 2016-04-18 16:24:48 0 1 1
C 2016-04-23 13:20:44 2016-04-23 14:20:44 1 1 2
这是我做的:
grouped = A.groupby('item')
A['end'] = (grouped['time'].transform(lambda grp: grp.min()+pd.Timedelta(hours=1)))
A2 = A.loc[(A['time'] <= A['end'])]
这给了我每天一组:第一次交易后1小时内的交易。所以,我在同一天错过了其他交易,但与第一次交易相差超过1小时。我的斗争是如何获得这些团体。然后,我可以使用pd.crosstab
从result
列中获取所需的详细信息。
我的另一个想法是按A
和item
排序time
,然后逐行排序。如果时间在上一行的1小时内,则会添加到该组,否则会创建一个新组。
答案 0 :(得分:1)
1)设置window_end
列以供.groupby()
稍后使用,并定义.get_windows()
以检查每个item
群组是否row
适合当前当前的1小时窗口,或者什么都不做并保持初始值。适用于所有item
组:
df['window_end'] = df.time + pd.Timedelta('1H')
def get_windows(data):
window_end = data.iloc[0].window_end
for index, row in data.iloc[1:].iterrows():
if window_end > row.time:
df.loc[index, 'window_end'] = window_end
else:
window_end = row.window_end
df.groupby('item').apply(lambda x: get_windows(x))
2)将windows
和item
与.groupby()
一起使用,并将.value_counts()
作为transposed
DataFrame
返回,清理index
,并添加total
:
df = df.groupby(['window_end', 'item']).result.apply(lambda x: x.value_counts().to_frame().T)
df = df.fillna(0).astype(int).reset_index(level=2, drop=True)
df['total'] = df.sum(axis=1)
得到:
N Y total
window_end item
2016-04-18 14:08:25 A A 2 1 3
2016-04-18 16:24:48 B B 1 0 1
2016-04-19 00:45:50 A A 0 1 1
2016-04-20 17:53:48 A A 1 1 2
2016-04-23 14:20:44 C C 1 1 2
答案 1 :(得分:1)
B = (A.groupby(['item', A.groupby('item')['time']
.diff().fillna(0).dt.total_seconds()//60//60
],
as_index=False)['time'].min()
)
B[['N','Y']] = (A.groupby(['item', A.groupby('item')['time']
.diff().fillna(0).dt.total_seconds()//60//60
])['result']
.apply(lambda x: x.value_counts().to_frame().T).fillna(0)
.reset_index()[['N','Y']]
)
输出:
In [178]: B
Out[178]:
item time N Y
0 A 2016-04-18 13:08:25 3.0 1.0
1 A 2016-04-18 23:45:50 0.0 1.0
2 A 2016-04-20 16:53:48 0.0 1.0
3 B 2016-04-18 15:24:48 1.0 0.0
4 C 2016-04-23 13:20:44 1.0 1.0
PS的想法是使用A.groupby('item')['time'].diff().fillna(0).dt.total_seconds()//60//60
作为分组的一部分:
In [179]: A.groupby('item')['time'].diff().fillna(0).dt.total_seconds()//60//60
Out[179]:
0 0.0
1 0.0
2 0.0
3 9.0
4 41.0
5 0.0
6 0.0
7 0.0
8 0.0
Name: time, dtype: float64
答案 2 :(得分:1)
import pandas as pd
from StringIO import StringIO
text = """item time result
A 2016-04-18 13:08:25 Y
A 2016-04-18 13:57:05 N
A 2016-04-18 14:00:12 N
A 2016-04-18 23:45:50 Y
A 2016-04-20 16:53:48 Y
A 2016-04-20 17:11:47 N
B 2016-04-18 15:24:48 N
C 2016-04-23 13:20:44 N
C 2016-04-23 14:02:23 Y
"""
df = pd.read_csv(StringIO(text), delimiter="\s{2,}", parse_dates=[1], engine='python')
我需要创建一些过程函数:
def set_time_group(df):
cur_time = pd.NaT
for index, row in df.iterrows():
if pd.isnull(cur_time):
cur_time = row.time
delta = row.time - cur_time
if delta.seconds / 3600. < 1:
df.loc[index, 'time_ref'] = cur_time
else:
df.loc[index, 'time_ref'] = row.time
cur_time = row.time
return df
def summarize_results(df):
df_ = df.groupby('result').count().iloc[:, 0]
df_.loc['total count'] = df_.sum()
return df_
dfg1 = df.groupby('item').apply(set_time_group)
dfg2 = dfg1.groupby(['item', 'time_ref']).apply(summarize_results)
df_f = dfg2.unstack().fillna(0)
print df_f
result N Y total count
item time_ref
A 2016-04-18 13:08:25 2.0 1.0 3.0
2016-04-18 23:45:50 0.0 1.0 1.0
2016-04-20 16:53:48 1.0 1.0 2.0
B 2016-04-18 15:24:48 1.0 0.0 1.0
C 2016-04-23 13:20:44 1.0 1.0 2.0