我可以异步执行“应用于”熊猫数据帧中的函数吗?

时间:2019-07-07 20:03:47

标签: python pandas asynchronous

我有一个pandas数据框,每行我想执行一个函数。但是,该功能包括对远程服务器的I / O调用,因此,如果我仅对数据帧使用.apply()来调用它,就会非常慢。

这里是一个例子:

def f(data):
    r = requests.get(data["url"])
    x = process(r.content)
    y = process_2(r.content)
    z = process_3(r.content)
    print("Done")

    return [x, y, z]

df.apply(lambda x: f(x), axis=1)

在此代码中,问题是requests.get(data["url"])需要一段时间,因此整个apply()函数的完成速度非常慢。 print()每隔几秒钟就会打印在控制台上。

是否可以异步执行apply()函数并更快地获得结果?我的数据框有5,000多行,对每个原始数据的函数调用应花费几秒钟。

4 个答案:

答案 0 :(得分:2)

异步I / O 方法与著名的asyncio + aiohttp库:

在示例数据框和简单的网页内容处理例程上进行了演示(以展示该方法的原理)。
假设我们需要通过所有 url 计算所有 header link <a>)和 span 标签>并将结果计数器存储在源数据帧中。

import pandas as pd
import asyncio
import aiohttp
from bs4 import BeautifulSoup


def count_headers(html):
    return len(list(html.select('h1,h2,h3,h4,h5,h6')))

def count_links(html):
    return len(list(html.find_all('a')))

def count_spans(html):
    return len(list(html.find_all('spans')))


df = pd.DataFrame({'id': [1, 2, 3], 'url': ['https://stackoverflow.com/questions',
                                            'https://facebook.com',
                                            'https://wiki.archlinux.org']})
df['head_c'], df['link_c'], df['span_c'] = [None, None, None]
# print(df)

async def process_url(df, url):
    async with aiohttp.ClientSession() as session:
        resp = await session.get(url)
        content = await resp.text()
        soup = BeautifulSoup(content, 'html.parser')
        headers_count = count_headers(soup)
        links_count = count_links(soup)
        spans_count = count_spans(soup)
        print("Done")

        df.loc[df['url'] == url, ['head_c', 'link_c', 'span_c']] = \
            [[headers_count, links_count, spans_count]]


async def main(df):
    await asyncio.gather(*[process_url(df, url) for url in df['url']])
    print(df)


loop = asyncio.get_event_loop()
loop.run_until_complete(main(df))
loop.close()

输出:

Done
Done
Done
   id                                  url  head_c  link_c  span_c
0   1  https://stackoverflow.com/questions      25     306       0
1   2                 https://facebook.com       3      55       0
2   3           https://wiki.archlinux.org      15      91       0

享受性能差异。

答案 1 :(得分:1)

如果不更清楚地描述正在使用的数据,很难确切地知道您想做什么以及什么是最好的。

import multiprocessing

def process_data(iterrow_row):
    row_idx, data = iterrow_row
    r = requests.get(data["url"])
    x = process(r.content)
    y = process_2(r.content)
    z = process_3(r.content)
    print("Done")

    return row_idx, [x, y, z]

mpool = multiprocessing.Pool(processes=20, maxtasksperchild=100)

for row_name, result in mpool.imap(process_data, df.iterrows()):
    pass # pack up the processed data

这是我所知道的使您的问题并行化的最简单方法。如果您更喜欢线程而不是派生的进程,则可能还可以使用ThreadPool。为此,dask的实现将是很多不必要的工作。

答案 2 :(得分:0)

优化 Pandas 应用的另一个想法是使用 Swifter https://github.com/jmcarpenter2/swifter

答案 3 :(得分:0)

使用 dask 的解决方案很简单:

import dask.dataframe as dd

npartitions = 24
dd.from_pandas(df, npartitions=npartitions).apply(lambda x: f(x), meta=list, axis=1).compute()

一个更常见的用例可能是应用函数返回一个数据帧。为此,您希望在您的函数中 return pd.Series({'x': x, 'y': y, 'z': z}) 然后通过例如meta={'x': float, 'y': float, 'z': float}apply