我正在尝试使用Deep Neural Networks(DNN)的功能来训练Lease Squared SVM。解决LS-SVM的标准过程是反转核矩阵。然而,来自DNN特征的核矩阵不是满秩。有谁知道如何将这个稀疏矩阵转移到满秩矩阵而不会丢失太多信息? PCA是减少输入维度并使其密集的良好候选解决方案吗?
答案 0 :(得分:0)
你似乎很困惑。核矩阵是成对点积的矩阵,这些不是特征。如果你的特征矩阵F是稀疏的并且大小为N x H,那么你的内核矩阵(在这个空间之上使用线性内核)就是:
K = F F'
是N x N,密集,因此应用任何类型的SVM都没有问题。