决策树中的根节点属性错误

时间:2019-05-25 19:45:35

标签: machine-learning decision-tree theory

关于决策树,我有两个对/错陈述:

  1. 在使用无噪声数据的决策树学习中,从根部错误的属性开始可能无法找到完全适合数据的树。

我的想法:我读过汤姆·米切尔(Tom Mitchell)的《机器学习》:

  

举一个极端的例子,考虑属性Date,它具有一个非常   大量可能的值(例如1979年3月4日)。如果我们要   将此属性添加到表3.2中的数据中,它将具有最高的   任何属性的信息增益。这是因为仅约会   根据训练数据完美地预测目标属性。从而,   它将被选择为根节点的决策属性   该树并导致深度为一的(相当宽的)树,   完美分类训练数据。

这使我认为选择错误的凝视功能来分割数据可能是个问题->因此语句为 TRUE 。这是正确的吗?

  1. 决策树的大小是ID3及其变体的可学习性的关键因素

我的想法:如果决策树被剪短,那么它可能无法从训练数据中正确地推广,因此无法学习。换句话说,大小很重要。因此,这也是 TRUE 。这是正确的观看方式吗?

提前谢谢!

0 个答案:

没有答案