我有500个特征向量,每个人都在1-6范围内标记为6个类。我将它们存储在mat文件中,如下所示:
m=load('TrainingData')
m =
Labels: [1x500 double] % labels for each class in 1-6
Data: [500x20 double] % Vectors
根据论坛上的一些帖子,我以稀疏格式传递了向量
TrData=sparse(m.Data);
然后我已经使用LIBSVM传递了这些数据来训练svm:
svm_model=svmtrain(Labels,TrData,'-c 1 -g 0.2 -b 1');
生成的模型如下:
svm_model =
Parameters: [5x1 double]
nr_class: 6
totalSV: 500
rho: [18x1 double]
Label: [6x1 double]
sv_indices: [500x1 double]
ProbA: [18x1 double]
ProbB: [18x1 double]
nSV: [6x1 double]
sv_coef: [500x5 double]
SVs: [500x20 double]
现在我正在计算带有标签
的128个测试文件的特征向量Test =
TLabels: [1x127 double]
TData: [127x20 double]
如果测试数据的标签未知,只需使用任意随机double
值(as per readme file)。然后将其传递给测试阶段即。
testin=sparse(Test.TData);
[lbl,accu,prob] = svmpredict(TLabels, testin, svm_model, '-b 1');
而可疑部分是所有127个向量都有prob
为:
prob =
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.0000 0.0000 0.0000 0.0000 0.0000 1.0000
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
0.1427 0.1427 0.1428 0.1436 0.1429 0.1427
除了一个全部为0的标签外,所有标签3都为6.并且
Accuracy = 0.787402% (1/127) (classification)
为什么会这样......?