如何计算决策树的泛化错误率

时间:2016-05-29 12:03:14

标签: machine-learning classification decision-tree

我正在进行数据挖掘简介的练习,并且一直坚持关于决策树的问题:

训练 Training

测试 Testing

决策树 Decision tree

这个问题要求我用乐观和悲观的方法计算泛化错误率,答案分别为0.3和0.5。 它们与我的答案0.5和0.7完全不同。根据我的计算,实例3,7,8,9,10是错误分类。 我在Google上搜索了很多文档,但是所有文档都没有解释原因,只是显示3/10 = 0.3。 请告诉我我犯了什么错误,谢谢!

3 个答案:

答案 0 :(得分:2)

我认为您的答案是正确的,解决方案手册的答案是错误的,并且您在此处复制树时发生了错误 - 在我的书副本中,叶节点标签已读取,来自从左到右,+, - ,+, - 。叶子节点+, - , - ,+的树分别导致乐观和悲观误差估计的30%和50%。

使用叶节点+, - ,+, - ,错误确实是50%和70%。

答案 1 :(得分:1)

你的答案是对的。 它是' +' iff(不是A&& B)|| (A&& not C)

答案 2 :(得分:0)

你错了,错误分类是:

  • 在训练中:3,5,6
  • 在测试中:12,13,14,15

您的决策树是:

  • return + iff(不是a而不是b)或(a和c)

因此例如3:

A = 0 B = 1 C = 0 class = +,你的DT返回 - A = 0且B = 1