使用sklearn cross_val_score和kfolds来拟合并帮助预测模型

时间:2017-02-16 02:46:34

标签: python machine-learning scikit-learn cross-validation

我正在尝试使用sklearn python模块中的kfolds交叉验证。

我理解基本流程:

  • 实例化一个模型,例如model = LogisticRegression()
  • 拟合模型,例如model.fit(xtrain, ytrain)
  • 预测,例如model.predict(ytest)
  • 使用例如交叉val分数来测试拟合模型的准确性。

我很困惑的是使用具有交叉val分数的sklearn kfolds。据我了解,cross_val_score函数将适合模型并在kfolds上进行预测,为每个折叠提供准确度分数。

e.g。使用这样的代码:

kf = KFold(n=data.shape[0], n_folds=5, shuffle=True, random_state=8)
lr = linear_model.LogisticRegression()
accuracies = cross_val_score(lr, X_train,y_train, scoring='accuracy', cv = kf)

因此,如果我有一个包含训练和测试数据的数据集,并且我使用kfolds的cross_val_score函数来确定算法对每个折叠的训练数据的准确性,那么现在是model是否适合预测测试数据? 所以在上面的情况下使用lr.predict

感谢您的帮助。

1 个答案:

答案 0 :(得分:9)

没有安装模型。查看source code for cross_val_score

scores=parallel(delayed(_fit_and_score)(clone(estimator),X,y,scorer,
                                        train,test,verbose,None,fit_params)

如您所见,cross_val_score在将折叠训练数据拟合到估算器之前克隆估算器。 cross_val_score将为您输出一系列分数,您可以分析这些分数以了解估算器如何针对数据的不同折叠执行以检查其是否过度拟合数据。你可以know more about it here

一旦您对cross_val_score的结果感到满意,需要将整个训练数据拟合,然后才能使用它来预测测试数据。