如何从迭代交叉验证中计算lambda.1se?

时间:2018-06-09 22:48:35

标签: r regression cross-validation glmnet

我有以下代码,根据迭代交叉验证后得出的最小均方误差(MSE),选择lambda的值。

library(glmnet)
set.seed(3)

IV1 <- data.frame(IV1 = rnorm(100))
IV2 <- data.frame(IV2 = rnorm(100))
IV3 <- data.frame(IV3 = rnorm(100))
IV4 <- data.frame(IV4 = rnorm(100))
IV5 <- data.frame(IV5 = rnorm(100))
DV <- data.frame(DV = rnorm(100))

data <- data.frame(IV1,IV2,IV3,IV4,IV5,DV)
x <- model.matrix(DV~.-IV5 , data)[ , -1]
y <- data$DV

AB <- glmnet(x=x, y=y, alpha=1)
plot(AB,xvar="lambda")

lambdas <- NULL
for (i in 1:100){
  fit <- cv.glmnet(x, y)
  errors <- data.frame(fit$lambda, fit$cvm)
  lambdas <- rbind(lambdas, errors)
}

lambdas <- aggregate(lambdas[ , 2], list(lambdas$fit.lambda), mean)


bestindex <- which(lambdas[2]== min(lambdas[2]))
bestlambda <- lambdas[bestindex,1]

如何修改此选项以选择lambda.1se(即,MSE在最小MSE的一个标准误差范围内的最大λ)?

编辑:

这个怎么样

    lambdas <- NULL #initialize
n.fits <- 100
for (i in 1:n.fits) {
    {
  fit <- cv.glmnet(x,y)
  errors = data.frame(fit$lambda,fit$cvm)
  lambdas <- rbind(lambdas,errors)
  r2[i]<-max(1-fit$cvm/var(y))
}
# take mean cvm for each lambda
lambdas <- aggregate(lambdas[, 2], list(lambdas$fit.lambda), mean)
lambdas<-as.data.frame(lambdas)

# find subset with mse within 1 se of mean
onese<-std.error(lambdas[2])
min<-min(lambdas[2])
low<-min-onese
high<-min+onese

lambdas<-subset(lambdas, x>low)
lambdas<-subset(lambdas, x<high)

#choose highest lambda among those

bestindex = which(lambdas[1]==max(lambdas[1]))
bestlambda = lambdas[bestindex,1]

1 个答案:

答案 0 :(得分:1)

如果您决定使用cv.glmnet,则可能是您正在寻找的内容。 (ps我也稍微清理了你的模拟代码;注意我也没有使用来自AB的{​​{1}}对象,这显然与glmnet不同

cv.glmnet