使用普通KFold和StratifiedKFold交叉验证时,OneVsOneClassifier(或OneVsRestClassifier)获得的不同结果

时间:2020-02-29 01:50:53

标签: python scikit-learn classification cross-validation

当我安装OneVsOneClassifier(或OneVsRestClassifier)时,我注意到使用普通KFold和StratifiedKFold交叉验证时获得了不同的结果。与使用StratifiedKFold相比,使用普通KFold时测试集的性能要低得多。

问题:

1)对于OneVsOneClassifier(或OneVsRestClassifier)策略起作用,我是否应该说,每个类的比例需要保留在训练和测试集中?

2)当我想使用OneVsOneClassifier(或OneVsRestClassifier)时,使用普通的KFold或StratifiedKFold更好吗?

非常感谢。

0 个答案:

没有答案