我正在使用SVM来训练使用1000个特征(X)和标记数据(y)的模型,目的是使用它来预测y_new。一些功能对于预测y并不是非常重要,因此我希望减少保留最重要功能的功能数量。在scikit-learn feature selection overview上写着:
使用SVM和逻辑回归,参数C控制 稀疏性:较小的C选择的特征越少。
这是指SVC(包含所有内核)以及LinearSVC吗?换句话说,如果我想使用SVC和'rbf'内核,是否有必要选择一个特征子集作为初步步骤(例如recursive feature elimination或LASSO)找到我将用于训练我的SVC的最重要的功能,或者我可以直接用SVC训练1000个功能,并简单地使C“小”。