我正在尝试将决策树桩作为弱学习者来实现AdaBoost算法,尽管我无法完全理解这种算法的结构。 我正在从维基百科页面了解算法 - https://en.m.wikipedia.org/wiki/AdaBoost 由于算法是迭代的,我们在1 ... T'中进行迭代。但这究竟是什么T?它是数据集中的样本总数,还是分割决策树桩的可能功能的数量?如果这是样本数量,那么这是否意味着我们可能会分裂多个弱学习者的相同特征?或者,加权数据样本的方法是否会阻止这种情况发生?
答案 0 :(得分:0)
AdaBoost(以及所有增强算法)迭代地训练许多弱模型(指定为参数),其输出被聚合以形成最终集合。
所以T
这里是要训练的弱学习者的数量。