这里我试图从其他web api源收集数据。但是我正在并行运行4-5任务fetch_page。
我得到"工作人员在处理请求"
时崩溃了请告诉我一些摆脱这个问题的方法。
此外,我收到了来自aiohttp.post请求的大量数据,因此有时write.write方法无法将数据写入客户端
import asyncio
import aiohttp
import json
import re
def fetch_page(writer, url, data):
response = yield from aiohttp.post(url,data=data)
resp = yield from response.read_and_close() <== here some time i am getting "Worker crashed while servicing request"
writer.write(resp)
yield # Yield to the event loop
yield from writer.drain()
return