机器学习中特征的维数减少

时间:2015-06-22 09:55:58

标签: machine-learning

有没有办法将以下要素的尺寸从2D坐标(x,y)缩小到一维?

enter image description here

1 个答案:

答案 0 :(得分:3)

是。实际上,减少特征的维度的方法有很多种。但是,它们在实践中的表现并不清楚。

特征减少通常通过主成分分析(PCA)完成,其涉及奇异值分解。它找到方差最大的方向 - 也就是那些"某些东西正在进行的方向"。

在您的情况下,PCA可能会将黑线视为两个主要组成部分之一:

enter image description here

将数据投影到此一维子空间,而不是产生简化形式的数据。

已经可以看到,在这一行上,三个功能组可以分开 - 我相应地着色了三个范围。对于您的示例,甚至可以完全分离数据集。然后,新数据点将根据其投影到黑线上的范围(或更一般地说,投影到主成分子空间上)进行分类。

形式上,人们可以通过使用PCA减少的数据作为输入的其他方法来获得除法,例如聚类方法或K-最近邻模型。

所以,是的,在你的例子的情况下,可以从2D到1D进行如此强烈的减少,同时,甚至可以获得合理的模型。