部署庞大的ML模型

时间:2018-08-22 07:38:54

标签: django machine-learning

我正在尝试使用Django框架和Gunicorn + Nginx在Ubuntu 16.04中部署几个RF分类模型。大约有5-6个型号,每个型号的腌制量大约为800MB-1.2GB。但是我的开发机器只有8GB的RAM,由于内存不足错误,我无法运行其他依赖服务。

我必须在启动时加载这些模型,因为取消对每个单个请求的选择将花费时间,并且它必须是具有可接受响应时间(在30秒以内)的同步调用。我看了看Django FileSystem缓存,但不确定是否有帮助(怀疑它也可以酸洗和加载)。

我需要有关如何以最佳方式在Dev机器中部署此类模型的建议。

0 个答案:

没有答案