我试图计算准确性,但感到困惑的是,cross_val_score给出的结果要低得多,而不是将预测结果与正确结果进行比较。
第一种计数方法,即给出
[0.8033333333333333, 0.7908333333333334, 0.8033333333333333, 0.7925,0.8066666666666666]
kf = KFold(shuffle=True, n_splits=5)
scores = []
for train_index, test_index in kf.split(X):
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
model = KNeighborsClassifier(n_jobs=-1, n_neighbors=5)
model.fit(X_train, y_train)
y_pred = model.predict(X_test)
scores.append(np.sum(y_pred == y_test) / len(y_test))
第二种方式给出array([0.46166667, 0.53583333, 0.40916667, 0.44666667, 0.3775 ])
:
model = KNeighborsClassifier(n_jobs=-1, n_neighbors=5)
cross_val_score(model, X, y, cv = 5, scoring='accuracy')
我怎么了?
答案 0 :(得分:-1)
cross_val_score
中的低分可能是因为您向其提供了完整的数据,而不是将其分为测试和训练集。这通常会导致信息泄漏,从而导致您的模型给出错误的预测。有关更多说明,请参见this post。
参考
答案 1 :(得分:-1)
cross_val_score
将使用StratifiedKFold
cv迭代器。 StratifiedKFold将在训练和测试拆分中以相同的方式保持类的比率平衡。有关更多说明,请参见此处的其他答案:-
另一方面,在您的第一种方法中,您正在使用KFold
,它将无法保持类的平衡。另外,您正在其中进行数据改组。
因此,在每种情况下,两种方法都有数据差异,因此结果也不同。