K折交叉验证实现

时间:2021-03-16 08:22:51

标签: python machine-learning scikit-learn cross-validation

我目前正在使用 LGBM 回归器模型来预测不同商店的产品单位销售额,我想执行 K 折交叉验证。

我正在使用以下代码:

model_lgb_base=lgb.LGBMRegressor(objective='regression',)
model_lgb_base.fit(x_train,y_train)

from sklearn.model_selection import cross_val_score
cv = KFold(n_splits=10, random_state=42, shuffle=False)

accuracy = cross_val_score(estimator=model_lgb_base, X = x_train, y = y_train, cv=10, scoring = 'r2')
print(accuracy)
accuracy.std()

#Predicting the test set results
y_pred = model_lgb_base.predict(x_valid)

[0.77916146 0.78209908 0.78333999 0.78286847 0.7831663  0.78029406
 0.78534152 0.77421018 0.78810446 0.77937227]

我正确使用了吗?我想使用 10 折交叉验证来训练模型并返回最佳模型。

0 个答案:

没有答案