免责声明:我是aiohttp的初学者
我正在尝试aiohttp异步处理获取请求,但事实证明,它比gevent的池版本要慢得多。
GEVENT版本
import gevent
from gevent import monkey
monkey.patch_all()
from gevent.pool import Pool
import requests
import time
def pooling_task(url):
requests.get(url)
def pooling_main():
start = time.time()
pool = Pool(10)
urls = [
"http://google.com",
"http://yahoo.com",
"http://linkedin.com",
"http://shutterfly.com",
"http://mypublisher.com",
"http://facebook.com"
]
for url in urls:
pool.apply_async(pooling_task, args=(url,))
pool.join()
end = time.time()
print("POOL TIME {}".format(end-start))
if __name__ == '__main__':
print("POOLING VERSION")
pooling_main()
输出-储存时间6.299163818359375
以下是aiohttp版本
import aiohttp
import asyncio
import time
import uvloop
asyncio.set_event_loop_policy(uvloop.EventLoopPolicy())
async def fetch(session, url):
async with session.get(url) as response:
return await response.text()
async def main():
urls = [
"http://google.com",
"http://yahoo.com",
"http://linkedin.com",
"http://shutterfly.com",
"http://mypublisher.com",
"http://facebook.com"]
async with aiohttp.ClientSession() as session:
for url in urls:
await fetch(session, url)
if __name__ == "__main__":
start = time.time()
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
end = time.time()
print("Time taken {}".format(end - start))
输出-耗时15.399710178375244
我真的不明白为什么aiohttp这么慢。 至于gevent版本,requests.get仍然是一个阻止调用,但不是aiohttp。
我希望aiohttp版本会更快。
答案 0 :(得分:8)
for url in urls:
await fetch(session, url)
await
意味着您在上一个完成之前不会开始下载下一个URL。要同时进行所有下载,您应该使用asyncio.gather之类的东西。
像这样修改您的代码:
async with aiohttp.ClientSession() as session:
await asyncio.gather(*[
fetch(session, url)
for url
in urls
])
您会看到巨大的加速。