我有一个dask dataframe
按索引(first_name
)分组。
import pandas as pd
import numpy as np
from multiprocessing import cpu_count
from dask import dataframe as dd
from dask.multiprocessing import get
from dask.distributed import Client
NCORES = cpu_count()
client = Client()
entities = pd.DataFrame({'first_name':['Jake','John','Danae','Beatriz', 'Jacke', 'Jon'],'last_name': ['Del Toro', 'Foster', 'Smith', 'Patterson', 'Toro', 'Froster'], 'ID':['X','U','X','Y', '12','13']})
df = dd.from_pandas(entities, npartitions=NCORES)
df = client.persist(df.set_index('first_name'))
(显然现实生活中的entities
是几千行)
我想将用户定义的函数应用于每个分组的数据帧。我想将每一行与组中的所有其他行进行比较(类似于Pandas compare each row with all rows in data frame and save results in list for each row)。
以下是我尝试应用的功能:
def contraster(x, DF):
matches = DF.apply(lambda row: fuzz.partial_ratio(row['last_name'], x) >= 50, axis = 1)
return [i for i, x in enumerate(matches) if x]
对于测试entities
数据框,您可以照常应用该功能:
entities.apply(lambda row: contraster(row['last_name'], entities), axis =1)
预期结果是:
Out[35]:
0 [0, 4]
1 [1, 5]
2 [2]
3 [3]
4 [0, 4]
5 [1, 5]
dtype: object
当entities
很大时,解决方案是使用dask
。请注意,DF
函数中的contraster
必须是分组数据框。
我正在尝试使用以下内容:
df.groupby('first_name').apply(func=contraster, args=????)
但我应该如何指定分组数据框(即DF
中的contraster
?)
答案 0 :(得分:8)
您提供给groupby-apply的函数应该将Pandas数据帧或系列作为输入,理想情况下返回一个(或标量值)作为输出。额外的参数很好,但它们应该是次要的,而不是第一个参数。在Pandas和Dask数据帧中都是一样的。
def func(df, x=None):
# do whatever you want here
# the input to this function will have all the same first name
return pd.DataFrame({'x': [x] * len(df),
'count': len(df),
'first_name': df.first_name})
然后您可以正常调用df.groupby
import pandas as pd
import dask.dataframe as dd
df = pd.DataFrame({'first_name':['Alice', 'Alice', 'Bob'],
'last_name': ['Adams', 'Jones', 'Smith']})
ddf = dd.from_pandas(df, npartitions=2)
ddf.groupby('first_name').apply(func, x=3).compute()
这将在pandas或dask.dataframe
中产生相同的输出 count first_name x
0 2 Alice 3
1 2 Alice 3
2 1 Bob 3
答案 1 :(得分:4)
通过一些猜测,我认为以下是你所追求的。
def mapper(d):
def contraster(x, DF=d):
matches = DF.apply(lambda row: fuzz.partial_ratio(row['last_name'], x) >= 50, axis = 1)
return [d.ID.iloc[i] for i, x in enumerate(matches) if x]
d['out'] = d.apply(lambda row:
contraster(row['last_name']), axis =1)
return d
df.groupby('first_name').apply(mapper).compute()
应用于您的数据,您将获得:
ID first_name last_name out
2 X Danae Smith [X]
4 12 Jacke Toro [12]
0 X Jake Del Toro [X]
1 U John Foster [U]
5 13 Jon Froster [13]
3 Y Beatriz Patterson [Y]
,即因为您按 first_name 分组,每个组只包含一个项目,只与自身匹配。
但是,如果您有多个 first_name 值,则会获得匹配:
entities = pd.DataFrame(
{'first_name':['Jake','Jake', 'Jake', 'John'],
'last_name': ['Del Toro', 'Toro', 'Smith'
'Froster'],
'ID':['Z','U','X','Y']})
输出:
ID first_name last_name out
0 Z Jake Del Toro [Z, U]
1 U Jake Toro [Z, U]
2 X Jake Smith [X]
3 Y John Froster [Y]
如果您不需要 first_name 上的完全匹配,那么您可能需要按first_name排序/设置索引并使用类似的map_partitions
办法。在这种情况下,你需要改革你的问题。