决策树回归背后的数学运算?

时间:2019-08-17 12:14:13

标签: machine-learning statistics regression data-science decision-tree

我试图了解决策树(回归)背后的数学原理。我碰到了两篇文章,他们都对如何在回归树中进行拆分有不同的解释。谁能指出哪一个是正确的,或者两者都是相似的,只是方法不同?

  1. https://www.saedsayad.com/decision_tree_reg.htm
  2. https://www.python-course.eu/Regression_Trees.php

谢谢

1 个答案:

答案 0 :(得分:1)

两个都是正确的。方法1使用标准差拆分节点,方法2使用方差。因为目标值是连续的,所以同时使用s.d和方差。

  

方差是最常用的拆分标准之一   回归树。

差异
方差是与平均值的平方差的平均值。要弄清楚方差,首先要计算每个点与平均值之间的差;然后,对结果求平方并求平均值。

标准偏差
标准差是一种统计量,它通过使用方差的平方根来查看一组数字与平均值之间的距离。方差的计算使用平方,因为它对异常值的加权比与非常接近均值的数据更重。此计算还可以防止高于均值的差异抵消低于均值的差异,有时差异可能为零。

enter image description here

enter image description here