解释PCA Vector WEKA

时间:2015-08-21 08:18:20

标签: weka linear-algebra pca

我已经在WEKA资源管理器中完成了选择属性PCA,但由于新属性输出向量不能加1,我在解释输出方面遇到了麻烦。

我的理解是,给定一些属性,PCA应该返回一个较小的子集,该子集被定义为组合旧的属性的新属性(例如给定属性A,B,C,PCA应该返回一个新的属性向量0,25A + 0,5B + 0,25C)。

但我得到的是:

-0.1669A + 0.542B -0.4038C + 0.4344D -0.3698E -0.3523F + 0.0329G + 0.0797H + 0.4103I + 0.4252J

如果被认为是绝对值,则总计为0.6317,负号或2.8835。有什么想法吗?

2 个答案:

答案 0 :(得分:0)

PCA 可以包含缩放因子。

这可能是更常见的情况。

答案 1 :(得分:0)

加权因子不必总计为1,因为最终结果没有概率维度。权重因子是所谓的“相似性/贡献”因素。因此,特征向量具有负权重是完全正常的,因为它不会“贡献”最终结果。

我建议你看看以下内容:

http://www.pages.drexel.edu/~sis26/Eigenface%20Tutorial.htm https://en.wikipedia.org/wiki/Eigenface

我认为特征脸的人脸识别/重建是PCA分析的一个很好的例子,因为你对“特征向量是什么”以及如何使用它有一个视觉概念

负权重的一个很好的例子如下:

如果数据集中的某些人戴着眼镜,则该特征将在一个或多个特征脸上更强烈地表示。为了构建一个不戴眼镜的人的脸,这些特征脸是非常无关紧要的(可能有一个小的或负的重量),并且与戴眼镜的人密切相关。

如果你通过更多例子,我相信你会得到它!