标签: xgboost amazon-sagemaker
我对两个XGBoost模型进行了超参数调整-一个是AWS-Sagemaker中的XGBoost,另一个是使用相同参数范围在本地安装的XGBoost。通过前者优化的模型似乎比后者更差(对于二进制分类问题,预测精度降低了18%)。我想知道有人遇到过类似的问题吗?如果是这样,可能的原因是什么?谢谢!