如何通过密钥访问groupby对象中相应的groupby数据帧?使用以下groupby:
rand = np.random.RandomState(1)
df = pd.DataFrame({'A': ['foo', 'bar'] * 3,
'B': rand.randn(6),
'C': rand.randint(0, 20, 6)})
gb = df.groupby(['A'])
我可以遍历它以获取密钥和组:
In [11]: for k, gp in gb:
print 'key=' + str(k)
print gp
key=bar
A B C
1 bar -0.611756 18
3 bar -1.072969 10
5 bar -2.301539 18
key=foo
A B C
0 foo 1.624345 5
2 foo -0.528172 11
4 foo 0.865408 14
我希望能够做类似
的事情In [12]: gb['foo']
Out[12]:
A B C
0 foo 1.624345 5
2 foo -0.528172 11
4 foo 0.865408 14
但是当我这样做时(好吧,实际上我必须做gb[('foo',)]
),我得到了这个奇怪的pandas.core.groupby.DataFrameGroupBy
这个似乎没有任何方法与我想要的DataFrame对应的东西。
我能想到的最好的是
In [13]: def gb_df_key(gb, key, orig_df):
ix = gb.indices[key]
return orig_df.ix[ix]
gb_df_key(gb, 'foo', df)
Out[13]:
A B C
0 foo 1.624345 5
2 foo -0.528172 11
4 foo 0.865408 14
考虑到这些东西通常有多好的熊猫,这是一种令人讨厌的事情
这样做的内置方式是什么?
答案 0 :(得分:149)
您可以使用get_group
方法:
In [21]: gb.get_group('foo')
Out[21]:
A B C
0 foo 1.624345 5
2 foo -0.528172 11
4 foo 0.865408 14
注意:这不需要为每个组创建每个子数据帧的中间字典/副本,因此使用dict(iter(gb))
创建天真字典的内存效率会更高。这是因为它使用了groupby对象中已有的数据结构。
您可以使用groupby切片选择不同的列:
In [22]: gb[["A", "B"]].get_group("foo")
Out[22]:
A B
0 foo 1.624345
2 foo -0.528172
4 foo 0.865408
In [23]: gb["C"].get_group("foo")
Out[23]:
0 5
2 11
4 14
Name: C, dtype: int64
答案 1 :(得分:60)
groups = dict(list(gb))
返回一个字典,其键是您的组标签,其值为DataFrames,即
groups['foo']
会产生你想要的东西:
A B C
0 foo 1.624345 5
2 foo -0.528172 11
4 foo 0.865408 14
答案 2 :(得分:16)
而不是
gb.get_group('foo')
我更喜欢使用gb.groups
df.loc[gb.groups['foo']]
因为这样你也可以选择多个列。例如:
df.loc[gb.groups['foo'],('A','B')]
答案 3 :(得分:5)
gb = df.groupby(['A'])
gb_groups = grouped_df.groups
如果您正在寻找选择性的groupby对象,请执行:gb_groups.keys(),并将所需的键输入到以下key_list中。
gb_groups.keys()
key_list = [key1, key2, key3 and so on...]
for key, values in gb_groups.iteritems():
if key in key_list:
print df.ix[values], "\n"
答案 4 :(得分:2)
我正在寻找一种方法来对GroupBy obj的一些成员进行抽样 - 必须解决已发布的问题才能完成此任务。
grouped = df.groupby('some_key')
sampled_df_i = random.sample(grouped.indicies, N)
df_list = map(lambda df_i: grouped.get_group(df_i), sampled_df_i)
sampled_df = pd.concat(df_list, axis=0, join='outer')