我使用LIBSVM和MatLab对3个类中的34x5数据进行分类。我应用了10倍Kfold交叉验证方法和RBF内核。输出是这个混淆矩阵,具有0.88正确率(88%准确度)。这是我的混淆矩阵
9 0 0
0 3 0
0 4 18
我想知道SVM中要考虑哪些方法来提高机器学习技术中的准确性或其他分类方法。有什么帮助吗?
这是我的SVM分类代码
load Turn180SVM1; //load data file
libsvm_options = '-s 1 -t 2 -d 3 -r 0 -c 1 -n 0.1 -p 0.1 -m 100 -e 0.000001 -h 1 -b 0 -wi 1 -q';//svm options
C=size(Turn180SVM1,2);
% cross validation
for i = 1:10
indices = crossvalind('Kfold',Turn180SVM1(:,C),10);
cp = classperf(Turn180SVM1(:,C));
for j = 1:10
[X, Z] = find(indices(:,end)==j);%testing
[Y, Z] = find(indices(:,end)~=j);%training
feature_training = Turn180SVM1([Y'],[1:C-1]); feature_testing = Turn180SVM1([X'],[1:C-1]);
class_training = Turn180SVM1([Y'],end); class_testing = Turn180SVM1([X'], end);
% SVM Training
disp('training');
[feature_training,ps] = mapminmax(feature_training',0,1);
feature_training = feature_training';
feature_testing = mapminmax('apply',feature_testing',ps)';
model = svmtrain(class_training,feature_training,libsvm_options);
%
% SVM Prediction
disp('testing');
TestPredict = svmpredict(class_testing,sparse(feature_testing),model);
TestErrap = sum(TestPredict~=class_testing)./length(class_testing)*100;
cp = classperf(cp, TestPredict, X);
disp(((i-1)*10 )+j);
end;
end;
[ConMat,order] = confusionmat(TestPredict,class_testing);
cp.CorrectRate;
cp.CountingMatrix;
答案 0 :(得分:2)
存在许多方法。如果您的调整过程是最佳的(例如,执行良好的交叉验证),您的选择包括:
改进预处理,或许根据领域知识定制新的聚合特征。最重要的(也是最有效的):确保您的输入正确标准化,例如将每个维度缩放到[-1,1]。
使用另一个内核:已知RBF内核在各种设置中都能很好地运行,但是许多任务都存在专用内核。除非你知道自己在做什么,否则不要考虑这个。由于您正在处理低维问题,如果您的数据没有结构化,RBF可能是一个不错的选择。
重新训练实例:当您的数据集不平衡时尤其重要(例如,某些类的实例比其他类少得多)。您可以使用libsvm中的-wX
选项执行此操作。存在各种重新加权方案,包括助推的变体。我不是这方面的主要粉丝,因为这种方法容易过度拟合。
更改交叉验证成本函数以满足您的确切需求。准确性真的是您正在寻找的,或者您想要,例如,高F1或高ROC-AUC?令人惊讶的是,有多少人优化了他们并非真正感兴趣的绩效指标。