我明白梯度拉动了回归的工作原理,当我们建立了一个模型上一个模型的残差如何 - 如果我们使用例如线性回归那么这将是剩余errror作为下一个模型的目标,然后概括所有最终使模型更精简
但是在梯度增强分类树中如何做到这一点?假设我们有一个结果为0/1的二进制分类模型-下一个要训练的模型的残差是多少?以及如何计算它,因为它不会像线性回归那样是y减去y预测的。
我真的卡在这一个!一个二元分类树的错误是那些它missclassifies - 所以是只有missclasified点的下一个模型的目标是什么?
答案 0 :(得分:0)