答案 0 :(得分:2)
这里的关键因素是误解了什么是输出,在这个伪代码中输出是 y (等式29),而不是 x (等式30),因此你确实将数据减少到d维度,最后的等式表明如果你想将返回移动到原始空间,你可以做到(显然数据会被恢复错误,因为与此同时,我们在转向d维时丢弃了大量信息。
答案 1 :(得分:0)
使用PCA时要理解的重要事项是协方差矩阵C(x)
及其相应的频谱分解。获得的eigenvalues
和eigenvector
分解用于降低维数。
对于D
维度训练集,我们有D
个特征值及其对应的特征向量。但在实践中(特别是与图像相关的应用),许多特征向量是相关的;换句话说,其中许多是冗余基础向量。因此,从基础空间中丢弃这些向量不会导致重大信息丢失。
现在,如果您想将输入数据的维度从原始D
缩减到d < D
维,则可以将输入数据投影到d
显性特征向量(来自{{ 1}}最大特征值)。 d
将项目输入数据提供给Eq~29
维度空间。 d
用于重建原始数据;这里的重建误差取决于Eq~30
(特征向量的数量)