标签: machine-learning decision-tree
关于0-1分类任务,GBDT应该使用交叉熵损失(即:gradient =(1- y)/(1- y_pred)-(y / y_pred)),但是作为比较,我也使用平方损失(即:gradient = y_pred-y);最后我发现,即使不是正方形损耗更好,它们也几乎相同。 怎么了?
cross entropy loss
square loss