为什么GBDT在0-1分类任务中使用平方损失比交叉熵损失更好?

时间:2019-02-20 00:46:27

标签: machine-learning decision-tree

关于0-1分类任务,GBDT应该使用交叉熵损失(即:gradient =(1- y)/(1- y_pred)-(y / y_pred)),但是作为比较,我也使用平方损失(即:gradient = y_pred-y);最后我发现,即使不是正方形损耗更好,它们也几乎相同。 怎么了?

cross entropy loss

square loss

0 个答案:

没有答案