为什么在进行KFold交叉验证后需要.fit

时间:2020-01-19 07:45:49

标签: machine-learning cross-validation k-fold

如果交叉验证对训练数据进行k次训练我们的模型,那么为什么需要拟合方法。

当我使用以下代码时

from sklearn.model_selection import cross_val_score
cross_val_score(model, train_s1, target_s1, cv=5 , scoring='neg_mean_absolute_error')

我需要使用.fit才能使用.predict。但为什么 ?当交叉验证已经使我的模型在训练数据上训练时。

1 个答案:

答案 0 :(得分:0)

在交叉验证中,您处理折叠(K-Fold),这可能类似于 3、5、10 等,其中数据根据提到的折叠分成不同的部分。 CV,然后对每个折叠进行训练,并根据传递给 CV 的不同特征展示准确性。现在您已经了解了您的数据,并且您还知道哪个功能最适合处理您的数据。在此过程之后,您开始对实时数据进行实际的模型训练和预测(这就是您再次调用拟合的原因)。

简历有很多好处,您可以浏览以获取更深入的信息。

相关问题