LIBSVM:所有测试都使用相同的标签?

时间:2014-03-25 14:27:59

标签: matlab classification libsvm

我有500个特征向量,每个人都在1-6范围内标记为6个类。我将它们存储在mat文件中,如下所示:

m=load('TrainingData')
m = 
         Labels: [1x500 double] % labels for each class in 1-6
           Data: [500x20 double] % Vectors

根据论坛上的一些帖子,我以稀疏格式传递了向量

TrData=sparse(m.Data);

然后我已经使用LIBSVM传递了这些数据来训练svm:

svm_model=svmtrain(Labels,TrData,'-c 1 -g 0.2 -b 1');

生成的模型如下:

svm_model = 
    Parameters: [5x1 double]
      nr_class: 6
       totalSV: 500
           rho: [18x1 double]
         Label: [6x1 double]
    sv_indices: [500x1 double]
         ProbA: [18x1 double]
         ProbB: [18x1 double]
           nSV: [6x1 double]
       sv_coef: [500x5 double]
           SVs: [500x20 double]

现在我正在计算带有标签

的128个测试文件的特征向量
Test = 
        TLabels: [1x127 double]
          TData: [127x20 double]

如果测试数据的标签未知,只需使用任意随机double(as per readme file)。然后将其传递给测试阶段即。

testin=sparse(Test.TData);
[lbl,accu,prob] = svmpredict(TLabels, testin, svm_model, '-b 1');

而可疑部分是所有127个向量都有prob为:

prob =
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.0000        0.0000    0.0000    0.0000    0.0000    1.0000
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427
    0.1427        0.1427    0.1428    0.1436    0.1429    0.1427

除了一个全部为0的标签外,所有标签3都为6.并且

Accuracy = 0.787402% (1/127) (classification)

为什么会这样......?

0 个答案:

没有答案