我正在阅读 QR 分解,我只是对 QR 分解和线性回归的结果有疑问。
假设我有 2 个矩阵 A (4x1) 和 B(4x2),我想找到 x(2x1) 使得:Bx = A。 首先,我使用 qr 分解找到 x 然后,我使用 lm find x
而且我发现两者的结果是不同的。 我想知道这是否正常?基于最小二乘误差,线性回归是否是更好的方法?
A=matrix(c(1,2,3,4),4,1)
B=matrix(c(2,4,7,9),4,1)
x = qr.coef(qr(A),B)
x
A%*%x
B
lm(B~A)
结果:
> A=matrix(c(1,2,3,4),4,1)
> B=matrix(c(2,4,7,9),4,1)
> x = qr.coef(qr(A),B)
> x
[,1]
[1,] 2.233333
> A%*%x
[,1]
[1,] 2.233333
[2,] 4.466667
[3,] 6.700000
[4,] 8.933333
> B
[,1]
[1,] 2
[2,] 4
[3,] 7
[4,] 9
>
> lm(B~A)
Call:
lm(formula = B ~ A)
Coefficients:
(Intercept) A
-0.5 2.4