Adaboost算法的工作原理如下。
Initialize weights D[i] = 1/m for all {D1, ..., Dm}
FOR t in T:
CHOOSE stump that minimizes error[t], sum D[i] of misclassified samples
COMPUTE error[t] and alpha[t]
UPDATE weights D[i] for all {D1, ..., Dm}
在更新权重D之后,有可能仍然残留残差最低的错误[t]。关于这种情况,我的问题是:我可以使用相同的树桩,同时保持最低的错误率,还是应该忽略该树桩并获得其他树桩?