XGBRegressor模型比类似的XGBClassifier模型生成更多的树

时间:2018-05-30 09:15:30

标签: python scipy xgboost

我正在使用xgboost进行提升分类树与使用xgboost的python中的提升回归树比较,部分是客户端项目,部分是内部实验。我正在使用完全相同的数据,但我正在为不同的目标建模。

对于提升的分类树模型,我将数据转置为给我一个好/坏标志作为目标,并使用某人好/坏的概率作为样本权重。

我们已成功地在其他用例中使用此方法,获得具有良好点预测的非常准确的模型。通过使用早期停止,我在调整参数等后得到了一个包含大约1000个估计量的模型。

对于增强回归树模型,我使用样本权重(基本上是某人好/坏的概率)作为目标,并在最终模型中得到~12000个估算器。

为什么连续目标和离散目标之间在模型复杂性方面存在如此大的差异?

0 个答案:

没有答案