用烧瓶部署xgb模型后花了很长时间进行预测

时间:2019-12-08 02:54:52

标签: flask deployment xgboost

我通过使用flask + gunicorn部署了XGB模型,并将其发布为API。分析之后,我发现如果我在计算机上本地运行xgboost / core.py(https://github.com/dmlc/xgboost/blob/master/python-package/xgboost/core.py行1338)中的预测功能,则只需2毫秒,而如果我调用我的计算机,则需要200毫秒。 API。

我的XGB版本是0.81,我使用save_model()将模型保存为二进制格式

我的计算机:cpu = 4,内存= 8G 服务器:cpu = 2,内存= 8G

似乎硬件环境没有极端差异。

我想知道是否有人知道为什么会发生

0 个答案:

没有答案