停止使用AdaBoost,降低学习率,然后继续进行调整

时间:2018-07-24 15:54:53

标签: python scikit-learn adaboost

我目前正在使用AdaBoost分类器。

http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostClassifier.html

我想使用400个估算器和默认学习率(1.0)来运行它。然后,一旦zero_one_loss开始受到质疑,我想降低学习率并保持健康。

我当前的代码如下:

dt_stump = sktree.DecisionTreeClassifier(max_depth=maxDepth, min_samples_leaf=1)
ada = skensemble.AdaBoostClassifier(base_estimator=dt_stump, learning_rate=learning_rate1, n_estimators=nEstimators1, algorithm=algo)
ada.fit(X_train, Y_train)

我想做类似的事情:

ada.learning_rate = learning_rate2
ada.fit(X_train, Y_train)

但是我不确定这是否正确。或者,如果我还应该更改估算器的数量。或者如果再次运行ada.fit(X_train,Y_train)是正确的。

是否可以查看示例脚本或示例?

非常感谢!

0 个答案:

没有答案