我试图使用Eigen从C ++中的数据集计算2个主要主成分。
我现在这样做的方法是将[0, 1]
之间的数据标准化,然后将平均值居中。之后,我计算协方差矩阵并对其运行特征值分解。我知道SVD更快,但我对计算组件感到困惑。
以下是关于我如何做的主要代码(其中traindata
是我的MxN大小的输入矩阵):
Eigen::VectorXf normalize(Eigen::VectorXf vec) {
for (int i = 0; i < vec.size(); i++) { // normalize each feature.
vec[i] = (vec[i] - minCoeffs[i]) / scalingFactors[i];
}
return vec;
}
// Calculate normalization coefficients (globals of type Eigen::VectorXf).
maxCoeffs = traindata.colwise().maxCoeff();
minCoeffs = traindata.colwise().minCoeff();
scalingFactors = maxCoeffs - minCoeffs;
// For each datapoint.
for (int i = 0; i < traindata.rows(); i++) { // Normalize each datapoint.
traindata.row(i) = normalize(traindata.row(i));
}
// Mean centering data.
Eigen::VectorXf featureMeans = traindata.colwise().mean();
Eigen::MatrixXf centered = traindata.rowwise() - featureMeans;
// Compute the covariance matrix.
Eigen::MatrixXf cov = centered.adjoint() * centered;
cov = cov / (traindata.rows() - 1);
Eigen::SelfAdjointEigenSolver<Eigen::MatrixXf> eig(cov);
// Normalize eigenvalues to make them represent percentages.
Eigen::VectorXf normalizedEigenValues = eig.eigenvalues() / eig.eigenvalues().sum();
// Get the two major eigenvectors and omit the others.
Eigen::MatrixXf evecs = eig.eigenvectors();
Eigen::MatrixXf pcaTransform = evecs.rightCols(2);
// Map the dataset in the new two dimensional space.
traindata = traindata * pcaTransform;
此代码的结果如下:
为了确认我的结果,我尝试了同样的WEKA。所以我做的是按顺序使用normalize和center过滤器。然后主成分过滤并保存+绘制输出。结果如下:
从技术上讲,我应该做同样的事,但结果是如此不同。任何人都可以看出我是否犯了错误?
答案 0 :(得分:4)
缩放到0,1时,修改局部变量vec
但忘记更新traindata
。
此外,这可以通过这种方式更轻松地完成:
RowVectorXf minCoeffs = traindata.colwise().maxCoeff();
RowVectorXf minCoeffs = traindata.colwise().minCoeff();
RowVectorXf scalingFactors = maxCoeffs - minCoeffs;
traindata = (traindata.rowwise()-minCoeffs).array().rowwise() / scalingFactors.array();
即使用行向量和数组功能。
我还要补充一点,对称特征值分解实际上比SVD快。在这种情况下,SVD的真正优势在于它避免了对条目进行平方,但由于输入数据是标准化和居中的,并且您只关心最大的特征值,因此这里没有准确性。
答案 1 :(得分:1)
原因是Weka 标准化数据集。这意味着它会将每个要素的方差与单位方差进行比较。当我这样做时,情节看起来是一样的。从技术上讲,我的方法也是正确的。