使用matplotlib的PCA的基本示例

时间:2013-08-18 13:19:56

标签: python matplotlib pca

我尝试使用matplotlib.mlab.PCA进行简单的主成分分析但是使用类的属性我无法得到一个干净的解决方案来解决我的问题。这是一个例子:

在2D中获取一些虚拟数据并启动PCA:

from matplotlib.mlab import PCA
import numpy as np

N     = 1000
xTrue = np.linspace(0,1000,N)
yTrue = 3*xTrue

xData = xTrue + np.random.normal(0, 100, N)
yData = yTrue + np.random.normal(0, 100, N)
xData = np.reshape(xData, (N, 1))
yData = np.reshape(yData, (N, 1))
data  = np.hstack((xData, yData))
test2PCA = PCA(data)

现在,我只想将主要组件作为原始坐标中的向量,并将其作为箭头绘制到我的数据上。

什么是快速而干净的方式到达那里?

谢谢,Tyrax

2 个答案:

答案 0 :(得分:24)

我认为mlab.PCA类不适合您想要做的事情。特别是,PCA类在找到特征向量之前重新调整数据:

a = self.center(a)
U, s, Vh = np.linalg.svd(a, full_matrices=False)

center方法除以sigma

def center(self, x):
    'center the data using the mean and sigma from training set a'
    return (x - self.mu)/self.sigma

这导致特征向量pca.Wt,如下所示:

[[-0.70710678 -0.70710678]
 [-0.70710678  0.70710678]]

它们是垂直的,但与原始数据的主轴不直接相关。它们是按摩数据的主要轴心。

也许直接编码你想要的东西可能更容易(不使用mlab.PCA类):

import numpy as np
import matplotlib.pyplot as plt

N = 1000
xTrue = np.linspace(0, 1000, N)
yTrue = 3 * xTrue
xData = xTrue + np.random.normal(0, 100, N)
yData = yTrue + np.random.normal(0, 100, N)
xData = np.reshape(xData, (N, 1))
yData = np.reshape(yData, (N, 1))
data = np.hstack((xData, yData))

mu = data.mean(axis=0)
data = data - mu
# data = (data - mu)/data.std(axis=0)  # Uncommenting this reproduces mlab.PCA results
eigenvectors, eigenvalues, V = np.linalg.svd(data.T, full_matrices=False)
projected_data = np.dot(data, eigenvectors)
sigma = projected_data.std(axis=0).mean()
print(eigenvectors)

fig, ax = plt.subplots()
ax.scatter(xData, yData)
for axis in eigenvectors:
    start, end = mu, mu + sigma * axis
    ax.annotate(
        '', xy=end, xycoords='data',
        xytext=start, textcoords='data',
        arrowprops=dict(facecolor='red', width=2.0))
ax.set_aspect('equal')
plt.show()

enter image description here

答案 1 :(得分:1)

请注意,matplotlib.mlab.PCAremoved in 3.1

以下是三种可选的 PCA 实现,一种基于最后一个 matplotlib.mlab.PCA implementation,一种基于 unutbu's answer,一种基于 doug's answer to another question

前两者使用奇异值分解(svd)获得特征值和特征向量,后者使用协方差矩阵(cov)方法。

heresvdcov 方法之间的关系进行了精彩的解释。

为了便于比较,已对实现进行了简化和重构。

def pca_svd(data):
    """ based on matplotlib.mlab.PCA with standardize=False """
    data -= data.mean(axis=0)
    __, singular_values, eigenvectors_transposed = numpy.linalg.svd(
        data, full_matrices=False)
    eigenvalues = singular_values ** 2 / (data.shape[0] - 1)
    eigenvectors = eigenvectors_transposed.T
    transformed_data = numpy.dot(data, eigenvectors)
    return transformed_data, eigenvalues, eigenvectors


def pca_svd_transposed(data):
    """ based on unutbu's answer """
    data -= data.mean(axis=0)
    eigenvectors, singular_values, __ = numpy.linalg.svd(
        data.T, full_matrices=False)  # note data transposed
    eigenvalues = singular_values ** 2 / (data.shape[0] - 1)
    transformed_data = numpy.dot(data, eigenvectors)
    return transformed_data, eigenvalues, eigenvectors
    
    
def pca_cov(data):
    """ based on doug's answer """
    data -= data.mean(axis=0)
    covariance_matrix = numpy.cov(data, rowvar=False)
    eigenvalues, eigenvectors = scipy.linalg.eigh(covariance_matrix)
    decreasing_order = numpy.argsort(eigenvalues)[::-1]
    eigenvalues = eigenvalues[decreasing_order]
    eigenvectors = eigenvectors[:, decreasing_order]
    transformed_data = numpy.dot(data, eigenvectors)
    return transformed_data, eigenvalues, eigenvectors

eigenvalues 表示数据沿主轴的方差,即 transformed_data 的方差。

使用 timeit 进行计时会在我的系统上显示以下内容:

array shape:  (15000, 4)
iterations:  1000
pca_svd_transposed: 4.32 s (average 4.32 ms)
pca_svd:            1.87 s (average 1.87 ms)
pca_cov:            1.41 s (average 1.41 ms)

请注意,对于此数组形状,转置输入数组的 svd 相对较慢。