我写过我认为非常简单的SVM分类器[SVM =支持向量机]。 "测试"它具有不同参数的正态分布数据,分类器返回50%的准确度。有什么问题?
这是代码,结果应该是可重现的:
features1 = normrnd(1,5,[100,5]);
features2 = normrnd(50,5,[100,5]);
features = [features1;features2];
labels = [zeros(100,1);ones(100,1)];
%% SVM-Classification
nrFolds = 10; %number of folds of crossvalidation
kernel = 'linear'; % 'linear', 'rbf' or 'polynomial'
C = 1; % C is the 'boxconstraint' parameter.
cvFolds = crossvalind('Kfold', labels, nrFolds);
for i = 1:nrFolds % iterate through each fold
testIdx = (cvFolds == i); % indices test instances
trainIdx = ~testIdx; % indices training instances
% train the SVM
cl = fitcsvm(features(trainIdx,:), labels(trainIdx),'KernelFunction',kernel,'Standardize',true,...
'BoxConstraint',C,'ClassNames',[0,1]);
[label,scores] = predict(cl, features(testIdx,:));
eq = sum(labels(testIdx));
accuracy(i) = eq/numel(labels(testIdx));
end
crossValAcc = mean(accuracy)
答案 0 :(得分:2)
您没有正确计算准确度。您需要确定与原始数据匹配的预测数量。您只是总结测试集中的1的总数,而不是实际预测的实际数量。
因此,您必须将eq
语句更改为:
eq = sum(labels(testIdx) == label);
回想一下,labels(testIdx)
从您的测试集中提取真实标签,label
是您的SVM模型的预测结果。这会正确生成0/1
的向量,其中0
表示预测与测试集中的实际标签不匹配,1
表示他们同意。每次他们同意或每次向量为1
时进行求和是计算精度的方法。