功能选择是否内置于scikit-learn的SVM中?

时间:2017-01-05 06:02:19

标签: python scikit-learn svm feature-selection

我正在使用SVM来训练使用1000个特征(X)和标记数据(y)的模型,目的是使用它来预测y_new。一些功能对于预测y并不是非常重要,因此我希望减少保留最重要功能的功能数量。在scikit-learn feature selection overview上写着:

  

使用SVM和逻辑回归,参数C控制   稀疏性:较小的C选择的特征越少。

这是指SVC(包含所有内核)以及LinearSVC吗?换句话说,如果我想使用SVC和'rbf'内核,是否有必要选择一个特征子集作为初步步骤(例如recursive feature eliminationLASSO)找到我将用于训练我的SVC的最重要的功能,或者我可以直接用SVC训练1000个功能,并简单地使C“小”。

0 个答案:

没有答案