我正在尝试使用sklearn python模块中的kfolds交叉验证。
我理解基本流程:
model = LogisticRegression()
model.fit(xtrain, ytrain)
model.predict(ytest)
我很困惑的是使用具有交叉val分数的sklearn kfolds。据我了解,cross_val_score函数将适合模型并在kfolds上进行预测,为每个折叠提供准确度分数。
e.g。使用这样的代码:
kf = KFold(n=data.shape[0], n_folds=5, shuffle=True, random_state=8)
lr = linear_model.LogisticRegression()
accuracies = cross_val_score(lr, X_train,y_train, scoring='accuracy', cv = kf)
因此,如果我有一个包含训练和测试数据的数据集,并且我使用kfolds的cross_val_score
函数来确定算法对每个折叠的训练数据的准确性,那么现在是model
是否适合预测测试数据?
所以在上面的情况下使用lr.predict
感谢您的帮助。
答案 0 :(得分:9)
没有安装模型。查看source code for cross_val_score
:
scores=parallel(delayed(_fit_and_score)(clone(estimator),X,y,scorer, train,test,verbose,None,fit_params)
如您所见,cross_val_score
在将折叠训练数据拟合到估算器之前克隆估算器。 cross_val_score
将为您输出一系列分数,您可以分析这些分数以了解估算器如何针对数据的不同折叠执行以检查其是否过度拟合数据。你可以know more about it here
一旦您对cross_val_score
的结果感到满意,需要将整个训练数据拟合,然后才能使用它来预测测试数据。