决策树,这里有什么不对?

时间:2015-04-18 12:50:39

标签: machine-learning classification decision-tree pattern-recognition hierarchical-clustering

两天前我参加了比赛。我们的一个问题如下:

  

深度为2的决策树是为两个二进制特征构造的。   假设空间中有多少特征可以用以下树显示?

enter image description here

  

答案表说解决方案为16但承诺说明了这一点   问题因错误答案而被删除。谁可以添加   解释为什么要删除它?答案的哪一部分是错的?

3 个答案:

答案 0 :(得分:2)

在这种情况下,您已经表示了可以由决策树表示的所有可能的功能。因此,假设空间总共有4个可能的点。

答案 1 :(得分:1)

此树雕刻假设空间的分区数等于叶数(4)。在这种情况下,这也是最大值,因为有两个二进制特征,唯一输入的总数是2 ^ 2或4。

答案 2 :(得分:1)

16?没门。问题是愚蠢的,老实说。

决策树(DT)中的要素数量与树的最大深度相对应,这是您可以向DT请求建模要素空间的最大问题数量。

这是DT在每个节点中根据特征区分特征空间的逻辑结果。