我正在使用libsvm,我必须使用 1和所有实现多类的分类。
我该怎么做?
libsvm
版本2011是否使用此功能?
我认为我的问题不是很明确。
如果libsvm没有自动使用one,那么我将为每个类使用一个svm,否则我如何在svmtrain
函数中定义这个参数。
我读过libsvm的自述文件。
答案 0 :(得分:33)
根据官方的libsvm documentation(第7节):
LIBSVM为多类实现“一对一”的方法 分类。如果
k
是类的数量,那么k(k-1)/2
构造分类器,每个分类器训练两个数据 类。在分类中,我们使用投票策略:每个二进制 分类被视为可以投票的投票 对于所有数据点x - 最后一个点被指定为a 具有最大投票数的类。
在 one-against-all 方法中,我们构建了与类一样多的二进制分类器,每个类都经过训练以将一个类与其余类分开。为了预测新实例,我们选择具有最大决策函数值的分类器。
正如我之前提到的,我们的想法是训练k
SVM模型,每个模型将一个类别与其余类别分开。一旦我们有了这些二元分类器,我们就会使用概率输出(-b 1
选项)通过选择概率最高的类来预测新实例。
考虑以下示例:
%# Fisher Iris dataset
load fisheriris
[~,~,labels] = unique(species); %# labels: 1/2/3
data = zscore(meas); %# scale features
numInst = size(data,1);
numLabels = max(labels);
%# split training/testing
idx = randperm(numInst);
numTrain = 100; numTest = numInst - numTrain;
trainData = data(idx(1:numTrain),:); testData = data(idx(numTrain+1:end),:);
trainLabel = labels(idx(1:numTrain)); testLabel = labels(idx(numTrain+1:end));
以下是我对多类SVM的一对一方法的实现:
%# train one-against-all models
model = cell(numLabels,1);
for k=1:numLabels
model{k} = svmtrain(double(trainLabel==k), trainData, '-c 1 -g 0.2 -b 1');
end
%# get probability estimates of test instances using each model
prob = zeros(numTest,numLabels);
for k=1:numLabels
[~,~,p] = svmpredict(double(testLabel==k), testData, model{k}, '-b 1');
prob(:,k) = p(:,model{k}.Label==1); %# probability of class==k
end
%# predict the class with the highest probability
[~,pred] = max(prob,[],2);
acc = sum(pred == testLabel) ./ numel(testLabel) %# accuracy
C = confusionmat(testLabel, pred) %# confusion matrix