标签: python scikit-learn classification svm rfe
有人可以解释一下为什么分类的准确性会随着Scikit-learn中交叉验证的递归特征消除所使用的功能的增加而下降吗?从Scikit-learn文档中报告的示例:Recursive feature elimination with cross-validation,似乎在使用7个特征时会产生最佳分类结果。但是,使用17种功能时,精度会下降25%。这怎么可能?我希望随着功能的增加,精度会不断提高。
答案 0 :(得分:1)
您所指的文档版本是OLD。该示例的当前版本为here 如果删除功能总是会降低性能,那么进行功能选择就没有意义了。 删除与目标无关的功能将减少过度拟合。