我有一组带有数值和部分重叠索引的DataFrame。如果索引出现在多个DataFrame中,我想将它们合并为平均值。
import pandas as pd
import numpy as np
df1 = pd.DataFrame([1,2,3], columns=['col'], index=['a','b','c'])
df2 = pd.DataFrame([4,5,6], columns=['col'], index=['b','c','d'])
这给了我两个DataFrame:
col col
a 1 b 4
b 2 c 5
c 3 d 6
现在我想合并DataFrames并取每个索引的均值(如果适用,即如果它出现多次)。
应该是这样的:
col
a 1
b 3
c 4
d 6
我可以使用一些高级合并/加入吗?
答案 0 :(得分:11)
类似的东西:
df3 = pd.concat((df1, df2))
df3.groupby(df3.index).mean()
# col
# a 1
# b 3
# c 4
# d 6
或其他方式,如@unutbu回答:
pd.concat((df1, df2), axis=1).mean(axis=1)
答案 1 :(得分:4)
In [22]: pd.merge(df1, df2, left_index=True, right_index=True, how='outer').mean(axis=1)
Out[23]:
a 1
b 3
c 4
d 6
dtype: float64
关于Roman的问题,我发现IPython的%timeit
命令可以方便地对代码进行基准测试:
In [28]: %timeit df3 = pd.concat((df1, df2)); df3.groupby(df3.index).mean()
1000 loops, best of 3: 617 µs per loop
In [29]: %timeit pd.merge(df1, df2, left_index=True, right_index=True, how='outer').mean(axis=1)
1000 loops, best of 3: 577 µs per loop
In [39]: %timeit pd.concat((df1, df2), axis=1).mean(axis=1)
1000 loops, best of 3: 524 µs per loop
在这种情况下,pd.concat(...).mean(...)
变得更快一些。但实际上我们应该测试更大的数据帧以获得更有意义的基准。
顺便说一句,如果您不想安装IPython,可以使用Python's timeit
module运行等效的基准测试。它需要更多的设置。 docs has some examples显示了如何执行此操作。
请注意,如果df1
或df2
的索引中包含重复条目,例如:
N = 1000
df1 = pd.DataFrame([1,2,3]*N, columns=['col'], index=['a','b','c']*N)
df2 = pd.DataFrame([4,5,6]*N, columns=['col'], index=['b','c','d']*N)
然后这三个答案给出了不同的结果:
In [56]: df3 = pd.concat((df1, df2)); df3.groupby(df3.index).mean()
Out[56]:
col
a 1
b 3
c 4
d 6
pd.merge
可能没有给出你想要的那种答案:
In [58]: len(pd.merge(df1, df2, left_index=True, right_index=True, how='outer').mean(axis=1))
Out[58]: 2002000
虽然pd.concat((df1, df2), axis=1)
引发了一个ValueError:
In [48]: pd.concat((df1, df2), axis=1)
ValueError: cannot reindex from a duplicate axis