XGBoost报告eval-auc一直在下降,但是火车一直在上升,无论结果是否正常?

时间:2017-07-26 08:50:22

标签: python machine-learning xgboost training-data

我想使用XGBoost的early_stopping_rounds进行非过度训练。为此,我使用以下代码:

parameters = {'nthread': 4,'objective': 'binary:logistic','learning_rate': 0.06,'max_depth': 6,'min_child_weight': 3,
        'silent': 0,'gamma': 0,'subsample': 0.7,'colsample_bytree': 0.5,'n_estimators': 5,
        'missing': -999,'scale_pos_weight': scale_pos_weight,'seed': 4789,'eval_metric':'auc','early_stopping_rounds': 100}
X_train, X_test, y_train, y_test =train_test_split(train_feature,train_label, test_size=0.3, random_state=4789)
dtrain = xgb.DMatrix(X_train, label=y_train)
dtest = xgb.DMatrix(X_test, label=y_test)
evallist = [(dtest, 'eval'), (dtrain, 'train')]
bst = xgb.train(parameters, dtrain,num_boost_round=1500, evals=evallist)

当打印中间结果时,我得到如下日志:

[1469]  eval-auc:0.912417   train-auc:0.986104
[16:04:23] src/tree/updater_prune.cc:74: tree pruning end, 1 roots, 110 extra nodes, 0 pruned nodes, max_depth=6
[1470]  eval-auc:0.912412   train-auc:0.986118
[16:04:27] src/tree/updater_prune.cc:74: tree pruning end, 1 roots, 102 extra nodes, 0 pruned nodes, max_depth=6
[1471]  eval-auc:0.912405   train-auc:0.986129
[16:04:30] src/tree/updater_prune.cc:74: tree pruning end, 1 roots, 116 extra nodes, 0 pruned nodes, max_depth=6
[1472]  eval-auc:0.912383   train-auc:0.986143
[16:04:34] src/tree/updater_prune.cc:74: tree pruning end, 1 roots, 116 extra nodes, 0 pruned nodes, max_depth=6
[1473]  eval-auc:0.912375   train-auc:0.986159

现在我想知道这个列车的结果是对的?如果我的模型是否过度拟合以及选择了多少轮,如何检测?

1 个答案:

答案 0 :(得分:1)

正如@Stepan Novikov所说,你看到的结果是对的 - 你的模特刚开始过度适应。

关于你的第二个问题,early_stopping_rounds参数的工作方式是在N轮完成后停止训练,而eval-aug没有任何改进(N是early_stopping_rounds)。请注意,eval-auc值可能会降低,但只要在最后N轮中有任何绝对改善,训练就会继续。

在你的例子中,回合[1469]具有eval-auc的最大值,因此训练将不会停止直到回合[1569](100轮之后,如配置)。

最后,达到的最佳轮数应存储在示例的bst变量中。