熊猫在两个列表中的逐行差异

时间:2018-10-28 05:27:45

标签: python pandas

我正在使用pandas来逐步查找新元素,即,对于每一行,我都会查看是否以前已经查看过list中的值。如果它们是,我们将忽略它们。如果没有,我们将选择它们。

我能够使用row.iterrows()来做到这一点,但是我有超过100万行,因此我认为向量化apply可能会更好。

这里是示例数据和代码。运行此代码后,您将获得预期的输出:

from numpy import nan as NA
import collections

df = pd.DataFrame({'ID':['A','B','C','A','B','A','A','A','D','E','E','E'],
                   'Value': [1,2,3,4,3,5,2,3,7,2,3,9]})
#wrap all elements by group in a list
Changed_df=df.groupby('ID')['Value'].apply(list).reset_index() 
Changed_df=Changed_df.rename(columns={'Value' : 'Elements'})
Changed_df=Changed_df.reset_index(drop=True)



def flatten(l):
    for el in l:
        if isinstance(el, collections.Iterable) and not isinstance(el, (str, bytes)):
            yield from flatten(el)
        else:
            yield el

Changed_df["Elements_s"]=Changed_df['Elements'].shift()

#attempt 1: For loop
Changed_df["Diff"]=NA
Changed_df["count"]=0
Elements_so_far = []

#replace NA with empty list in columns that will go through list operations
for col in ["Elements","Elements_s","Diff"]:
    Changed_df[col] = Changed_df[col].apply(lambda d: d if isinstance(d, list) else [])

for idx,row in Changed_df.iterrows():
    diff = list(set(row['Elements']) - set(Elements_so_far))
    Changed_df.at[idx, "Diff"] = diff
    Elements_so_far.append(row['Elements'])
    Elements_so_far = flatten(Elements_so_far)
    Elements_so_far = list(set(Elements_so_far)) #keep unique elements
    Changed_df.loc[idx,"count"]=diff.__len__()

关于代码的注释:

  • 我不喜欢此代码,因为它笨拙且效率低下。
    • 我说的是效率低下,因为我创建了Elements_s来保存偏移的值。效率低下的另一个原因是for遍历行。
  • Elements_so_far跟踪我们为每一行发现的所有元素。如果显示一个新元素,我们将在Diff栏中进行计数。
  • 我们还跟踪count列中发现的新元素的长度。

如果能为我提供代码的矢量化版本,我将不胜感激。


我确实尝试了矢量化版本,但走得太远了。

#attempt 2:
Changed_df.apply(lambda x: [i for i in x['Elements'] if i in x['Elements_s']], axis=1)

我受到How to compare two columns both with list of strings and create a new column with unique items?的启发而做上面的事情,但我做不到。链接的SO线程在列之间做逐行差异。

我正在使用Anaconda的Python 3.6.7。熊猫版本是0.23.4

2 个答案:

答案 0 :(得分:1)

您可以使用sort,然后使用numpy来获取unique索引,然后构造分组,例如:

In []:
df = df.sort_values(by='ID').reset_index(drop=True)
_, i = np.unique(df.Value.values, return_index=True)
df.iloc[i].groupby(df.ID).Value.apply(list)

Out[]:
ID
A    [1, 2, 3, 4, 5]
D                [7]
E                [9]
Name: Value, dtype: object

或者接近您当前的输出:

In []:
df = df.sort_values(by='ID').reset_index(drop=True)
_, i = np.unique(df.Value.values, return_index=True)
s1 = df.groupby(df.ID).Value.apply(list).rename('Elements')
s2 = df.iloc[i].groupby(df.ID).Value.apply(list).rename('Diff').reindex(s1.index, fill_value=[])

pd.concat([s1, s2, s2.apply(len).rename('Count')], axis=1)

Out[]:
           Elements             Diff  Count
ID
A   [1, 4, 5, 2, 3]  [1, 2, 3, 4, 5]      5
B            [2, 3]               []      0
C               [3]               []      0
D               [7]              [7]      1
E         [2, 3, 9]              [9]      1

答案 1 :(得分:1)

使用drop duplicatesgroupby

的另一种选择
# Groupby and apply list func.
df1 = df.groupby('ID')['Value'].apply(list).to_frame('Elements')

# Sort values , drop duplicates by Value column then use groupby.
df1['Diff'] = df.sort_values(['ID','Value']).drop_duplicates('Value').groupby('ID')['Value'].apply(list)

# Use str.len for count.
df1['Count'] = df1['Diff'].str.len().fillna(0).astype(int)

# To fill NaN with empty list
df1['Diff'] = df1.Diff.apply(lambda x: x if type(x)==list else []) 


           Elements             Diff   Count
ID               
A   [1, 4, 5, 2, 3]  [1, 2, 3, 4, 5]     5
B            [2, 3]               []     0
C               [3]               []     0
D               [7]              [7]     1
E         [2, 3, 9]              [9]     1