如何在Python中创建异步生成器?

时间:2016-12-28 09:44:54

标签: python asynchronous async-await generator python-asyncio

我正在尝试将此Python2.7代码重写为新的异步世界顺序:

def get_api_results(func, iterable):
    pool = multiprocessing.Pool(5)
    for res in pool.map(func, iterable):
        yield res

map()阻塞,直到计算完所有结果,因此我尝试将其重写为异步实现,一旦准备就会产生结果。与map()类似,返回值的返回顺序必须与iterable相同。我试过这个(因为传统的身份验证要求,我需要requests):

import requests

def get(i):
    r = requests.get('https://example.com/api/items/%s' % i)
    return i, r.json()

async def get_api_results():
    loop = asyncio.get_event_loop()
    futures = []
    for n in range(1, 11):
        futures.append(loop.run_in_executor(None, get, n))
    async for f in futures:
        k, v = await f
        yield k, v

for r in get_api_results():
    print(r)

但是使用Python 3.6我得到了:

  File "scratch.py", line 16, in <module>
    for r in get_api_results():
TypeError: 'async_generator' object is not iterable

我该如何做到这一点?

2 个答案:

答案 0 :(得分:11)

关于旧的(2.7)代码 - 多处理被认为是更简单的线程模块的强大替代品,用于同时处理CPU密集型任务,其中线程不能很好地工作。您的代码可能不受CPU限制 - 因为它只需要发出HTTP请求 - 并且线程可能足以解决您的问题。

然而,Python 3+没有直接使用threading,而是有一个名为concurrent.futures的漂亮模块,通过酷Executor类提供更清晰的API。此模块也可用于{2.7}作为external package

以下代码适用于python 2和python 3:

# For python 2, first run:
#
#    pip install futures
#
from __future__ import print_function

import requests
from concurrent import futures

URLS = [
    'http://httpbin.org/delay/1',
    'http://httpbin.org/delay/3',
    'http://httpbin.org/delay/6',
    'http://www.foxnews.com/',
    'http://www.cnn.com/',
    'http://europe.wsj.com/',
    'http://www.bbc.co.uk/',
    'http://some-made-up-domain.coooom/',
]


def fetch(url):
    r = requests.get(url)
    r.raise_for_status()
    return r.content


def fetch_all(urls):
    with futures.ThreadPoolExecutor(max_workers=5) as executor:
        future_to_url = {executor.submit(fetch, url): url for url in urls}
        print("All URLs submitted.")
        for future in futures.as_completed(future_to_url):
            url = future_to_url[future]
            if future.exception() is None:
                yield url, future.result()
            else:
                # print('%r generated an exception: %s' % (
                # url, future.exception()))
                yield url, None


for url, s in fetch_all(URLS):
    status = "{:,.0f} bytes".format(len(s)) if s is not None else "Failed"
    print('{}: {}'.format(url, status))

此代码使用基于线程的futures.ThreadPoolExecutor。很多魔法在as_completed()使用。

上面的python 3.6代码,使用创建futures.ProcessPoolExecutor()的{​​{3}},并没有真正使用异步IO !!

如果您真的想继续使用asyncio,则需要使用支持asyncio的HTTP客户端,例如run_in_executor()。这是一个示例代码:

import asyncio

import aiohttp


async def fetch(session, url):
    print("Getting {}...".format(url))
    async with session.get(url) as resp:
        text = await resp.text()
    return "{}: Got {} bytes".format(url, len(text))


async def fetch_all():
    async with aiohttp.ClientSession() as session:
        tasks = [fetch(session, "http://httpbin.org/delay/{}".format(delay))
                 for delay in (1, 1, 2, 3, 3)]
        for task in asyncio.as_completed(tasks):
            print(await task)
    return "Done."


loop = asyncio.get_event_loop()
resp = loop.run_until_complete(fetch_all())
print(resp)
loop.close()

如您所见,asyncio也有一个as_completed(),现在使用真正的异步IO,在一个进程上只使用一个线程。

答案 1 :(得分:6)

您将事件循环放在另一个协同例程中。不要这样做。事件循环是最外面的&#39;驱动程序&#39;异步代码,应该同步运行。

如果您需要处理获取的结果,请编写更多协程来执行此操作。他们可以从队列中获取数据,也可以直接驱动提取。

您可以拥有一个获取和处理结果的主函数,例如:

async def main(loop): 
    for n in range(1, 11):
        future = loop.run_in_executor(None, get, n)
        k, v = await future
        # do something with the result

loop = asyncio.get_event_loop()
loop.run_until_complete(main(loop))

我使用像aiohttp之类的异步库也可以使get()函数正常异步,因此您根本不必使用执行程序。