清晰可分的数据的机会级别准确性

时间:2017-09-13 19:16:06

标签: matlab optimization machine-learning svm

我写过我认为非常简单的SVM分类器[SVM =支持向量机]。 "测试"它具有不同参数的正态分布数据,分类器返回50%的准确度。有什么问题?

这是代码,结果应该是可重现的:

features1 = normrnd(1,5,[100,5]);
features2 = normrnd(50,5,[100,5]);
features = [features1;features2];
labels = [zeros(100,1);ones(100,1)];

%% SVM-Classification
nrFolds = 10; %number of folds of crossvalidation
kernel = 'linear'; % 'linear', 'rbf' or 'polynomial'
C = 1; % C is the 'boxconstraint' parameter. 

cvFolds = crossvalind('Kfold', labels, nrFolds);


for i = 1:nrFolds                            % iterate through each fold
    testIdx = (cvFolds == i);                % indices test instances
    trainIdx = ~testIdx;                     % indices training instances

    % train the SVM
    cl = fitcsvm(features(trainIdx,:), labels(trainIdx),'KernelFunction',kernel,'Standardize',true,...
    'BoxConstraint',C,'ClassNames',[0,1]);

    [label,scores] =  predict(cl, features(testIdx,:));
    eq = sum(labels(testIdx));
    accuracy(i) = eq/numel(labels(testIdx));

end

crossValAcc = mean(accuracy)

1 个答案:

答案 0 :(得分:2)

您没有正确计算准确度。您需要确定与原始数据匹配的预测数量。您只是总结测试集中的1的总数,而不是实际预测的实际数量。

因此,您必须将eq语句更改为:

eq = sum(labels(testIdx) == label);

回想一下,labels(testIdx)从您的测试集中提取真实标签,label是您的SVM模型的预测结果。这会正确生成0/1的向量,其中0表示预测与测试集中的实际标签不匹配,1表示他们同意。每次他们同意或每次向量为1时进行求和是计算精度的方法。