重用Adaboost中的树桩

时间:2018-06-30 03:14:02

标签: machine-learning adaboost

Adaboost算法的工作原理如下。

Initialize weights D[i] = 1/m for all {D1, ..., Dm} FOR t in T: CHOOSE stump that minimizes error[t], sum D[i] of misclassified samples COMPUTE error[t] and alpha[t] UPDATE weights D[i] for all {D1, ..., Dm}

在更新权重D之后,有可能仍然残留残差最低的错误[t]。关于这种情况,我的问题是:我可以使用相同的树桩,同时保持最低的错误率,还是应该忽略该树桩并获得其他树桩?

0 个答案:

没有答案