标签: machine-learning xgboost
我一直在尝试调整xgboost模型的超参数,但是通过xgb的cv函数发现,模型以最大化的性能所需的n_estimators超过7000个n_estimators,学习率为0.6!
这有点荒谬,因为要为最佳模型执行其余的超参数调整会花费很多时间。以下链接是我当前正在关注的指南。谁能提供有关如何减少n_estimator数量的建议,或者在不具有如此高的n_estimator值的情况下如何进行调优?谢谢!
https://www.analyticsvidhya.com/blog/2016/03/complete-guide-parameter-tuning-xgboost-with-codes-python/#comment-110796