我目前正在使用AdaBoost分类器。
http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostClassifier.html
我想使用400个估算器和默认学习率(1.0)来运行它。然后,一旦zero_one_loss开始受到质疑,我想降低学习率并保持健康。
我当前的代码如下:
dt_stump = sktree.DecisionTreeClassifier(max_depth=maxDepth, min_samples_leaf=1)
ada = skensemble.AdaBoostClassifier(base_estimator=dt_stump, learning_rate=learning_rate1, n_estimators=nEstimators1, algorithm=algo)
ada.fit(X_train, Y_train)
我想做类似的事情:
ada.learning_rate = learning_rate2
ada.fit(X_train, Y_train)
但是我不确定这是否正确。或者,如果我还应该更改估算器的数量。或者如果再次运行ada.fit(X_train,Y_train)是正确的。
是否可以查看示例脚本或示例?
非常感谢!