如何估计Leave One Out交叉验证中的错误

时间:2018-02-15 23:32:38

标签: python scikit-learn cross-validation

是否有正确的方法来执行LOOCV并将误差估计为所有列车数据的平均值。 我已经按照以下方式执行了K-FOLD CROSS-VALIDATION:

scores = cross_val_score(clf, X, y, cv = 10, scoring = "accuracy")
print('mean score and the 95% confidence interval of the score estimate')
print("Accuracy: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2))

我想知道LOOC的正确方法是什么,因为这个假设cv = N(实例数)。我正在文档中阅读它,但我正在寻找的是LOOCV的估计误差。 我遇到的是这段代码,但它似乎没有为每次验证产生准确性或错误:

 from sklearn.model_selection import LeaveOneOut
 loo = LeaveOneOut()
 for train, test in loo.split(X):
     print("%s %s" % (train, test))

提前致谢

0 个答案:

没有答案