使用KPCA(内核PCA)评估未见样本的特征脸

时间:2015-12-16 07:38:04

标签: kernel pca face-recognition

我有一个关于看不见的样品的问题,我想要合格(面对或不面对)。使用普通的特征脸方法(不是再生内核替代PCA的内积),通过将样本投影到来自PCA上的特征向量的列车集矩阵上并最终测试投影到特征向量的最小距离来进行评估。一个门槛。

我潦草地阅读了几篇讨论KPCA方法的出版物,但是当谈到测试看不见的样本的最后一步时,我遇到了一个很小的,未解决的问题:

使用普通PCA,在投影到特征向量之前,从测试向量中减去训练集的平均值。对于KPCA来说并非如此。我想这里的问题是没有访问内核空间中的点,只是距离。因此,我们没有"意思是"。但是,这至少不值得讨论吗?

感谢您提出意见和建议,因为我认为这是目前尚未提及的某种不准确之处。

1 个答案:

答案 0 :(得分:0)

在Scholkopf早期的KPCA工作中(有一篇评论论文作为作者,题目涉及"非线性成分分析"),有一个KPCA变体涉及减去均值。它使计算复杂得多,具有居中的后续算法(如估计逆或样本外估计)也变得更加复杂。复杂性更多地与计算有关,更复杂=成本最高。

大约在同一时间,Williams和Seeger(2001)的研究表明,KPCA可以推导为密度函数的有限维近似(在高斯核或其他Parzen窗口类型函数下)。这种解释不需要平均偏移量。对于这些,KPCA将数据映射到超球面上也有很好的解释。平均偏移将破坏该解释。它是如何推广到与密度无关的非传统内核,我不确定。这种基于密度的解释确实与正交序列密度估计和核熵分析(提供调整KPCA程序的方法)有很好的联系。