我通过使用flask + gunicorn部署了XGB模型,并将其发布为API。分析之后,我发现如果我在计算机上本地运行xgboost / core.py(https://github.com/dmlc/xgboost/blob/master/python-package/xgboost/core.py行1338)中的预测功能,则只需2毫秒,而如果我调用我的计算机,则需要200毫秒。 API。
我的XGB版本是0.81,我使用save_model()将模型保存为二进制格式
我的计算机:cpu = 4,内存= 8G 服务器:cpu = 2,内存= 8G
似乎硬件环境没有极端差异。
我想知道是否有人知道为什么会发生