我尝试使用matplotlib.mlab.PCA进行简单的主成分分析但是使用类的属性我无法得到一个干净的解决方案来解决我的问题。这是一个例子:
在2D中获取一些虚拟数据并启动PCA:
from matplotlib.mlab import PCA
import numpy as np
N = 1000
xTrue = np.linspace(0,1000,N)
yTrue = 3*xTrue
xData = xTrue + np.random.normal(0, 100, N)
yData = yTrue + np.random.normal(0, 100, N)
xData = np.reshape(xData, (N, 1))
yData = np.reshape(yData, (N, 1))
data = np.hstack((xData, yData))
test2PCA = PCA(data)
现在,我只想将主要组件作为原始坐标中的向量,并将其作为箭头绘制到我的数据上。
什么是快速而干净的方式到达那里?
谢谢,Tyrax
答案 0 :(得分:24)
我认为mlab.PCA
类不适合您想要做的事情。特别是,PCA
类在找到特征向量之前重新调整数据:
a = self.center(a)
U, s, Vh = np.linalg.svd(a, full_matrices=False)
center
方法除以sigma
:
def center(self, x):
'center the data using the mean and sigma from training set a'
return (x - self.mu)/self.sigma
这导致特征向量pca.Wt
,如下所示:
[[-0.70710678 -0.70710678]
[-0.70710678 0.70710678]]
它们是垂直的,但与原始数据的主轴不直接相关。它们是按摩数据的主要轴心。
也许直接编码你想要的东西可能更容易(不使用mlab.PCA
类):
import numpy as np
import matplotlib.pyplot as plt
N = 1000
xTrue = np.linspace(0, 1000, N)
yTrue = 3 * xTrue
xData = xTrue + np.random.normal(0, 100, N)
yData = yTrue + np.random.normal(0, 100, N)
xData = np.reshape(xData, (N, 1))
yData = np.reshape(yData, (N, 1))
data = np.hstack((xData, yData))
mu = data.mean(axis=0)
data = data - mu
# data = (data - mu)/data.std(axis=0) # Uncommenting this reproduces mlab.PCA results
eigenvectors, eigenvalues, V = np.linalg.svd(data.T, full_matrices=False)
projected_data = np.dot(data, eigenvectors)
sigma = projected_data.std(axis=0).mean()
print(eigenvectors)
fig, ax = plt.subplots()
ax.scatter(xData, yData)
for axis in eigenvectors:
start, end = mu, mu + sigma * axis
ax.annotate(
'', xy=end, xycoords='data',
xytext=start, textcoords='data',
arrowprops=dict(facecolor='red', width=2.0))
ax.set_aspect('equal')
plt.show()
答案 1 :(得分:1)
请注意,matplotlib.mlab.PCA
是 removed in 3.1。
以下是三种可选的 PCA 实现,一种基于最后一个 matplotlib.mlab.PCA
implementation,一种基于 unutbu's answer,一种基于 doug's answer to another question。
前两者使用奇异值分解(svd
)获得特征值和特征向量,后者使用协方差矩阵(cov
)方法。
here 对 svd
和 cov
方法之间的关系进行了精彩的解释。
为了便于比较,已对实现进行了简化和重构。
def pca_svd(data):
""" based on matplotlib.mlab.PCA with standardize=False """
data -= data.mean(axis=0)
__, singular_values, eigenvectors_transposed = numpy.linalg.svd(
data, full_matrices=False)
eigenvalues = singular_values ** 2 / (data.shape[0] - 1)
eigenvectors = eigenvectors_transposed.T
transformed_data = numpy.dot(data, eigenvectors)
return transformed_data, eigenvalues, eigenvectors
def pca_svd_transposed(data):
""" based on unutbu's answer """
data -= data.mean(axis=0)
eigenvectors, singular_values, __ = numpy.linalg.svd(
data.T, full_matrices=False) # note data transposed
eigenvalues = singular_values ** 2 / (data.shape[0] - 1)
transformed_data = numpy.dot(data, eigenvectors)
return transformed_data, eigenvalues, eigenvectors
def pca_cov(data):
""" based on doug's answer """
data -= data.mean(axis=0)
covariance_matrix = numpy.cov(data, rowvar=False)
eigenvalues, eigenvectors = scipy.linalg.eigh(covariance_matrix)
decreasing_order = numpy.argsort(eigenvalues)[::-1]
eigenvalues = eigenvalues[decreasing_order]
eigenvectors = eigenvectors[:, decreasing_order]
transformed_data = numpy.dot(data, eigenvectors)
return transformed_data, eigenvalues, eigenvectors
eigenvalues
表示数据沿主轴的方差,即 transformed_data
的方差。
使用 timeit
进行计时会在我的系统上显示以下内容:
array shape: (15000, 4)
iterations: 1000
pca_svd_transposed: 4.32 s (average 4.32 ms)
pca_svd: 1.87 s (average 1.87 ms)
pca_cov: 1.41 s (average 1.41 ms)
请注意,对于此数组形状,转置输入数组的 svd
相对较慢。