为什么在scikit-learn中使用RFECV时,分类的准确性会随着使用的功能的增加而下降?

时间:2015-03-30 00:21:54

标签: python scikit-learn classification svm rfe

有人可以解释一下为什么分类的准确性会随着Scikit-learn中交叉验证的递归特征消除所使用的功能的增加而下降吗?从Scikit-learn文档中报告的示例:Recursive feature elimination with cross-validation,似乎在使用7个特征时会产生最佳分类结果。但是,使用17种功能时,精度会下降25%。这怎么可能?我希望随着功能的增加,精度会不断提高。

1 个答案:

答案 0 :(得分:1)

您所指的文档版本是OLD。该示例的当前版本为here 如果删除功能总是会降低性能,那么进行功能选择就没有意义了。 删除与目标无关的功能将减少过度拟合。