如何提高SVM的性能?

时间:2013-09-10 01:37:29

标签: matlab machine-learning classification svm libsvm

我使用LIBSVM和MatLab对3个类中的34x5数据进行分类。我应用了10倍Kfold交叉验证方法和RBF内核。输出是这个混淆矩阵,具有0.88正确率(88%准确度)。这是我的混淆矩阵

9   0   0
0   3   0
0   4   18

我想知道SVM中要考虑哪些方法来提高机器学习技术中的准确性或其他分类方法。有什么帮助吗?

这是我的SVM分类代码

load Turn180SVM1; //load data file
libsvm_options = '-s 1 -t 2 -d 3 -r 0 -c 1 -n 0.1 -p 0.1 -m 100 -e 0.000001 -h 1 -b 0 -wi 1 -q';//svm options

C=size(Turn180SVM1,2);

% cross validation
for i = 1:10
    indices = crossvalind('Kfold',Turn180SVM1(:,C),10);
    cp = classperf(Turn180SVM1(:,C)); 
    for j = 1:10
        [X, Z] = find(indices(:,end)==j);%testing
        [Y, Z] = find(indices(:,end)~=j);%training


feature_training = Turn180SVM1([Y'],[1:C-1]); feature_testing = Turn180SVM1([X'],[1:C-1]);
class_training = Turn180SVM1([Y'],end); class_testing = Turn180SVM1([X'], end);
% SVM Training
       disp('training');
       [feature_training,ps] = mapminmax(feature_training',0,1);
       feature_training = feature_training';
       feature_testing = mapminmax('apply',feature_testing',ps)';
       model = svmtrain(class_training,feature_training,libsvm_options);  
% 

% SVM Prediction       
        disp('testing');
        TestPredict = svmpredict(class_testing,sparse(feature_testing),model);
       TestErrap = sum(TestPredict~=class_testing)./length(class_testing)*100;
         cp = classperf(cp, TestPredict, X);
        disp(((i-1)*10 )+j);
end;
end;
[ConMat,order] = confusionmat(TestPredict,class_testing);
cp.CorrectRate;
cp.CountingMatrix;

1 个答案:

答案 0 :(得分:2)

存在许多方法。如果您的调整过程是最佳的(例如,执行良好的交叉验证),您的选择包括:

  1. 改进预处理,或许根据领域知识定制新的聚合特征。最重要的(也是最有效的):确保您的输入正确标准化,例如将每个维度缩放到[-1,1]。

  2. 使用另一个内核:已知RBF内核在各种设置中都能很好地运行,但是许多任务都存在专用内核。除非你知道自己在做什么,否则不要考虑这个。由于您正在处理低维问题,如果您的数据没有结构化,RBF可能是一个不错的选择。

  3. 重新训练实例:当您的数据集不平衡时尤其重要(例如,某些类的实例比其他类少得多)。您可以使用libsvm中的-wX选项执行此操作。存在各种重新加权方案,包括助推的变体。我不是这方面的主要粉丝,因为这种方法容易过度拟合。

  4. 更改交叉验证成本函数以满足您的确切需求。准确性真的是您正在寻找的,或者您想要,例如,高F1或高ROC-AUC?令人惊讶的是,有多少人优化了他们并非真正感兴趣的绩效指标。