QR 分解和线性回归

时间:2021-02-10 14:53:29

标签: linear-regression lm qr-decomposition

我正在阅读 QR 分解,我只是对 QR 分解和线性回归的结果有疑问。

假设我有 2 个矩阵 A (4x1) 和 B(4x2),我想找到 x(2x1) 使得:Bx = A。 首先,我使用 qr 分解找到 x 然后,我使用 lm find x

而且我发现两者的结果是不同的。 我想知道这是否正常?基于最小二乘误差,线性回归是否是更好的方法?

A=matrix(c(1,2,3,4),4,1)
B=matrix(c(2,4,7,9),4,1)
x = qr.coef(qr(A),B)
x
A%*%x
B

lm(B~A)

结果:

> A=matrix(c(1,2,3,4),4,1)
> B=matrix(c(2,4,7,9),4,1)
> x = qr.coef(qr(A),B)
> x
         [,1]
[1,] 2.233333
> A%*%x
         [,1]
[1,] 2.233333
[2,] 4.466667
[3,] 6.700000
[4,] 8.933333
> B
     [,1]
[1,]    2
[2,]    4
[3,]    7
[4,]    9
> 
> lm(B~A)

Call:
lm(formula = B ~ A)

Coefficients:
(Intercept)            A  
       -0.5          2.4  

0 个答案:

没有答案