标签: python scikit-learn decision-tree loss-function
我使用了Scikit-Learn的GradientBoostingRegressor,想要比较不同损失函数的偏差图。假设我想比较最小二乘损失和最小绝对偏差(LAD)损失。我认为有必要确定LAD损失(或取LS损失的平方根),否则它们会失去不同的功率。但是在查看源代码中的Huber损失时,不会考虑这一点。对我来说,平方损失与线性损失相同似乎很奇怪。
GradientBoostingRegressor
有没有人对此有过想法?