使用了该选项
param['objective'] = 'multi:softmax'
并计算错误
然后使用该选项
param['objective'] = 'multi:softprob'
并计算错误
'multi:softprob'
的情况下,分类错误明显更高。数据集和其他输入和选项保持不变
我错过了什么吗?
答案 0 :(得分:0)
唯一的变化是更改选项。此选项已更改为获得输出概率。 有一个解决方案。请参阅下面的代码。但是,需要对模型进行两次训练,这是多余的。
https://github.com/dmlc/xgboost/blob/master/demo/multiclass_classification/train.py
希望我能说清楚。