从Flask下载文件时发生内存错误。 文件大小约为100兆字节。 我该如何解决?
烧瓶下载代码
return send_from_directory(s_trash_path, s_zip_name, mimetype='zip', as_attachment=True)
错误代码
[2018-07-21 16:11:22,328] ERROR in app: Exception on /ec-fileupload/download/select [POST]
Traceback (most recent call last):
File "/home/venv_ec_fileupload/lib/python3.6/site-packages/flask/app.py", line 1982, in wsgi_app
response = self.full_dispatch_request()
File "/home/venv_ec_fileupload/lib/python3.6/site-packages/flask/app.py", line 1615, in full_dispatch_request
return self.finalize_request(rv)
File "/home/venv_ec_fileupload/lib/python3.6/site-packages/flask/app.py", line 1632, in finalize_request
response = self.process_response(response)
File "/home/venv_ec_fileupload/lib/python3.6/site-packages/flask/app.py", line 1856, in process_response
response = handler(response)
File "./app/__init__.py", line 170, in after_request
s_data = resp.get_data()
File "/home/venv_ec_fileupload/lib/python3.6/site-packages/werkzeug/wrappers.py", line 987, in get_data
rv = b''.join(self.iter_encoded())
MemoryError
答案 0 :(得分:0)
由于文件很大且是动态生成的,因此建议您不要使用send_from_directory()
发送文件。
查看Flask流文档,了解如何流文件(发送小块数据而不是完整文件):http://flask.pocoo.org/docs/1.0/patterns/streaming/
from flask import Response
@app.route('/large.csv')
def generate_large_csv():
def generate():
for row in iter_all_rows():
yield ','.join(row) + '\n'
return Response(generate(), mimetype='text/csv')
上面的代码是有关如何使用flask流csv文件的代码段。
但是,如果文件是静态的,则Flask建议使用nginx
进行部署。
答案 1 :(得分:0)
如果您提供二进制文件,则不要遍历行,因为它基本上只包含一个“行”,这意味着您仍然将整个文件一次全部加载到RAM中。
读取大文件的唯一正确方法是通过块:
CHUNK_SIZE = 8192
def read_file_chunks(path):
with open(path, 'rb') as fd:
while 1:
buf = fd.read(CHUNK_SIZE)
if buf:
yield buf
else:
break
然后可以安全地在此块读取器上调用stream_with_context
,例如如果您提供视频文件:
@app.route('/videos/<name>')
def serve_video(name):
fp = resource_path / name
if fp.exists():
return Response(
stream_with_context(read_file_chunks(fp)),
headers={
'Content-Disposition': f'attachment; filename={name}'
}
)
else:
raise exc.NotFound()
在底层,Flask响应过程获取每个块(来自生成器read_file_chunks(fp)
)并将其刷新到HTTP连接,然后再加载下一个块。刷新后,块数据不再被引用,并被垃圾回收器清除,因此不会有很多块同时留在RAM中。