我想知道是否应该使用svm-scale函数在真实特征上缩放转换为单热编码(例如,对于6个可能的变量值为0 0 0 1 0 0)的分类特征。我认为libsvm指南显然是这么说的。
此外,如果存在一些不加区别的特征,例如对SVM的学习有何影响,例如:随机噪音?我应该在训练前删除这些功能吗?我的猜测是这些会影响学习,因为SVM基本上计算数据点之间的欧氏距离,这些距离表示为特征向量。由于功能数量很少,我不太关心运行时间。请提及svm的标准特征选择算法实现。任何建议都是受欢迎的。
谢谢。
答案 0 :(得分:0)
你有几个问题:
1)0-1功能是否应该缩放?
2)噪声特征的影响是什么?
3)是否应删除噪声功能?
4)如果是这样,怎么样?
(1)和(3)的一般答案是你应该使用交叉验证(或者一个保持验证集)尝试两种方式,并在交叉验证中保持一个更好的分数。如果我要猜测,我会说缩放0-1功能可能并不重要,因为SVM不依赖 规模依赖只要所有特征都是O(1),那些就是。中等数量的噪音功能也可能没问题。对于(2),你是正确的,噪声特征通常会在一定程度上降低SVM性能。特征选择是一个很大的主题。在scikit-learn user guide中有一个很好的介绍。