我的数据矩阵是1000x65K矩阵,包含500个正例和500个负例。我的功能是二进制(0或1)。我的标签是[ones(500,1); - 酮(500,1)];
我使用以下代码训练线性svm:
ost = 0.1;
epsilon = 2;
gamma = 0.1;
degree = 3;
coef0 = 0;
options_string = ['-s 0 -t 0 ' ' -c ' num2str(cost) ' -p ' num2str(epsilon) ' -g ' num2str(gamma) ' -d ' num2str(degree) ' -r ' num2str(coef0) ' -b 1'];
SVRModel = svm_train(data, labels , options_string);
我使用以下代码计算系数向量w:
w = zeros(1,M);
for i=1:length(SVRModel.sv_coef)
w = w + SVRModel.sv_coef(i)*SVRModel.SVs(i,:);
end
但是,结果向量w的所有值都是相同的。此外,我得到了484个支持向量,所有前424个svm系数都是0.1,其余的(也是424)是-0.1。
怎么会这样?有人可以对我的问题有所了解吗?
谢谢,
吉尔。
答案 0 :(得分:1)
首先,您在线性SVM中不需要gamma
和coef0
。
其次,我认为应该是
SVRModel = svm_train(labels, data, options_string);
在你的训练过程中。
你可以对重量和偏见术语进行矢量化。
w = model.SVs' * model.sv_coef;
b = -model.rho;