使用显性特征值计算特征向量

时间:2012-12-06 07:53:47

标签: eigenvector

我想问一些关于特征向量中心性的问题。 我必须使用功率迭代计算特征值。这是我计算特征值的代码:

  v=rand(165,1);
    for k=1:5
        w = data_table*v;
        lamda = norm(w);
        v = w/lamda;

    end

当我得到一个特征值时,我很困惑地使用我得到它的单个特征值计算特征向量得分。例如,在我的代码中计算特征值,我得到显性特征值= 78.50。有了这个特征值得分,我想要计算特征向量得分。通常,我们总是使用代码来计算特征值和特征向量,例如:[U,V] = eig(data_matrix); 但是,该代码的结果:

v = 
-167.59 0   0

0   -117.51 0

0   0   -112.0


V = 
0.0404505   0.04835455  -0.01170

0.0099050   -0.0035217  -0.05561

0.0319591   -0.0272589  0.018426

从结果我们使用三个特征值得分计算特征向量。我的问题是如何计算特征向量得分,但只使用我们在幂迭代码中得到的一个特征值得分?

1 个答案:

答案 0 :(得分:1)

幂迭代找到主导特征向量,即具有最大特征值的特征向量。

如果你从

开始
v=ones(165,1)/165;     % initialisation
for i=1:5              % 5 iterations
    w=data_table*v;    % assuming size(data_table) = [165 165]
    v=w/norm(w);
end

并且您的算法在5次迭代中收敛,然后v是您的主要特征向量;

另外,我将从一个较小的示例开始测试您的代码。你的matlab调用[U,V] = eig(data_matrix);令人困惑,因为V应该是一个大小为[165 165]的对角矩阵,而不是一个完整的矩阵[3 3];

试试这个:

X=[1 1 1;1 1 2;1 2 2]
[U,V]=eig(X)
X*U(:,3)
U(:,3)*V(3,3)

查看matlab输出中最大的特征值,即(V3,3)和相应的向量U(:,3)。

你使用幂迭代来找到这个特征向量:

 v=ones(1,3)
 w=v*X;v=w/norm(w)
 w=v*X;v=w/norm(w)
 w=v*X;v=w/norm(w)
 w=v*X;v=w/norm(w)