从QR分解中获取帽子矩阵,用于加权最小二乘回归

时间:2013-12-13 08:33:47

标签: r regression linear-regression lm qr-decomposition

我正在尝试扩展包lwr()的{​​{1}}函数,该函数适合作为非参数估计的重量回归。在McSptial函数的核心中,它使用lwr()而不是QR分解来反转矩阵,从而导致数值不稳定。我想改变它,但无法弄清楚如何从QR分解中得到帽子矩阵(或其他衍生物)。

使用数据:

solve()

set.seed(0); xmat <- matrix(rnorm(500), nrow=50) ## model matrix y <- rowSums(rep(2:11,each=50)*xmat) ## arbitrary values to let `lm.wfit` work w <- runif(50, 1, 2) ## weights 功能如下:

lwr()

我需要值,例如:

xmat2 <- w * xmat
xx <- solve(crossprod(xmat, xmat2))
xmat1 <- tcrossprod(xx, xmat2)
vmat <- tcrossprod(xmat1)

目前我使用的是sum((xmat[1,] %*% xmat1)^2) sqrt(diag(vmat)) ,但却无法找回我认为是帽子矩阵(reg <- lm.wfit(x=xmat, y=y, w=w))的内容。

1 个答案:

答案 0 :(得分:4)

这个老问题是我刚才回答的另一个老问题的延续:Compute projection / hat matrix via QR factorization, SVD (and Cholesky factorization?)。该答案讨论了计算普通最小二乘问题的帽子矩阵的3个选项,而这个问题是在加权最小二乘的背景下。但是答案中的结果和方法将成为我答案的基础。具体来说,我只会展示QR方法。

enter image description here

OP提到我们可以使用lm.wfit来计算QR分解,但我们可以自己使用qr.default这样做,这就是我要展示的方式。

在我继续之前,我需要指出OP的代码没有按照他的想法行事。 xmat1不是帽子矩阵;相反,xmat %*% xmat1是。 vmat不是帽子矩阵,虽然我不知道它是什么。然后我不明白这些是什么:

sum((xmat[1,] %*% xmat1)^2)
sqrt(diag(vmat))

第二个看起来像帽子矩阵的对角线,但正如我所说,vmat不是帽子矩阵。好吧,无论如何,我将继续正确计算帽子矩阵,并展示如何获得它的对角线和痕迹。

考虑玩具模型矩阵X和一些统一的正权重w

set.seed(0); X <- matrix(rnorm(500), nrow = 50)
w <- runif(50, 1, 2)    ## weights must be positive
rw <- sqrt(w)    ## square root of weights

我们首先通过行重新缩放到X1获取X(乳胶段落中的X_tilde):

X1 <- rw * X

然后我们对X1执行QR分解。正如在我的链接答案中所讨论的,我们可以使用或不使用列旋转来执行此分解。 lm.fitlm.wfit因此lm没有进行透视,但在这里我将使用旋转分解作为演示。

QR <- qr.default(X1, LAPACK = TRUE)
Q <- qr.qy(QR, diag(1, nrow = nrow(QR$qr), ncol = QR$rank))

请注意,我们没有按照链接的答案继续计算tcrossprod(Q),因为那是普通的最小二乘法。对于加权最小二乘法,我们需要Q1Q2

Q1 <- (1 / rw) * Q
Q2 <- rw * Q

如果我们只想要帽子矩阵的对角线和轨迹,则不需要进行矩阵乘法来首先获得完整的帽子矩阵。我们可以使用

d <- rowSums(Q1 * Q2)  ## diagonal
# [1] 0.20597777 0.26700833 0.30503459 0.30633288 0.22246789 0.27171651
# [7] 0.06649743 0.20170817 0.16522568 0.39758645 0.17464352 0.16496177
#[13] 0.34872929 0.20523690 0.22071444 0.24328554 0.32374295 0.17190937
#[19] 0.12124379 0.18590593 0.13227048 0.10935003 0.09495233 0.08295841
#[25] 0.22041164 0.18057077 0.24191875 0.26059064 0.16263735 0.24078776
#[31] 0.29575555 0.16053372 0.11833039 0.08597747 0.14431659 0.21979791
#[37] 0.16392561 0.26856497 0.26675058 0.13254903 0.26514759 0.18343306
#[43] 0.20267675 0.12329997 0.30294287 0.18650840 0.17514183 0.21875637
#[49] 0.05702440 0.13218959

edf <- sum(d)  ## trace, sum of diagonals
# [1] 10

在线性回归中,d是每个数据的影响,它对于生成置信区间(使用sqrt(d))和标准化残差(使用sqrt(1 - d))非常有用。跟踪,是模型的有效参数数量或有效自由度(因此我称之为edf)。我们看到edf = 10,因为我们使用了10个参数:X有10列,而且不是排名不足。

通常我们需要dedf。在极少数情况下,我们需要一个完整的帽子矩阵。为了得到它,我们需要一个昂贵的矩阵乘法:

H <- tcrossprod(Q1, Q2)

Hat矩阵对于帮助我们了解模型是否是本地/稀疏模型特别有用。让我们绘制这个矩阵(阅读?image以获取有关如何以正确方向绘制矩阵的详细信息和示例):

image(t(H)[ncol(H):1,])

enter image description here

我们看到此矩阵完全密集。这意味着,每个数据的预测取决于所有数据,即预测不是本地的。如果我们与其他非参数预测方法比较,如核回归,黄土,P样条(惩罚B样条回归)和小波,我们将观察稀疏的帽子矩阵。因此,这些方法被称为局部拟合。