Libsvm预先计算的内核

时间:2012-06-11 10:19:58

标签: machine-learning scikit-learn libsvm

我正在使用带有预先计算内核的libsvm。我为示例数据集heart_scale生成了一个预先计算的内核文件,并执行了函数svmtrain()。它工作正常,支持向量被正确识别,即类似于标准内核。

但是,当我尝试运行svmpredict()时,它为预先计算的模型文件提供了不同的结果。在深入研究代码之后,我注意到svm_predict_values()函数需要支持向量的实际特征,这在预计算模式下是不可用的。在预先计算模式下,我们只有每个支持向量的系数和索引,这被svmpredict()误认为是其特征。

这是一个问题还是我错过了什么。

(请告诉我如何在预先计算模式下运行svmpredict()。)

1 个答案:

答案 0 :(得分:5)

测试集向量x和每个训练集向量之间的内核评估值应该用作测试集特征向量。

以下是libsvm自述文件中的相关行:

  

xi的新训练实例:
    <标签> 0:i 1:K(xi,x1)... L:K(xi,xL)

     

任何x的新测试实例:
    <标签> 0:? 1:K(x,x1)...... L:K(x,xL)

libsvm自述文件说如果你有L个训练集向量,其中xi是一个训练集向量,其中i来自[1..L],而一个测试集向量x,那么x的特征向量应该是

< x的标签> 0:<任何数字> 1:K(x ^ {test},x1 ^ {train}),2:K(x ^ {test},x2 ^ {train})... L:K(x ^ {test},xL ^ {train })

其中K(u,v)用于表示内核函数的输出,其中向量u和v作为参数。

我在下面提供了一些示例python代码。

原始特征向量表示和预先计算(线性)内核的结果并不完全相同,但这可能是由于优化算法的差异。

from svmutil import *
import numpy as np

#original example
y, x = svm_read_problem('.../heart_scale')
m = svm_train(y[:200], x[:200], '-c 4')
p_label, p_acc, p_val = svm_predict(y[200:], x[200:], m)

##############
#train the SVM using a precomputed linear kernel

#create dense data
max_key=np.max([np.max(v.keys()) for v in x])
arr=np.zeros( (len(x),max_key) )

for row,vec in enumerate(x):
    for k,v in vec.iteritems():
        arr[row][k-1]=v
x=arr

#create a linear kernel matrix with the training data
K_train=np.zeros( (200,201) )
K_train[:,1:]=np.dot(x[:200],x[:200].T)
K_train[:,:1]=np.arange(200)[:,np.newaxis]+1

m = svm_train(y[:200], [list(row) for row in K_train], '-c 4 -t 4')

#create a linear kernel matrix for the test data
K_test=np.zeros( (len(x)-200,201) )
K_test[:,1:]=np.dot(x[200:],x[:200].T)
K_test[:,:1]=np.arange(len(x)-200)[:,np.newaxis]+1

p_label, p_acc, p_val = svm_predict(y[200:],[list(row) for row in K_test], m)