在统计学习简介中,James及其同事说明了
"相比之下,岭回归系数估计值可能会发生很大变化 将给定预测值乘以常数时。因此,最好在标准化预测变量后应用岭回归。"
我正在使用glmnet
包来进行岭和套索回归,但是使用{{{}> 预测因子在向后逐步回归中是非常重要的预测因子大于零1}}和glmnet()
函数。我愿意接受逐步回归可能会产生虚假结果(有很多帖子警告它),但我只是想确定缺少甚至单非零预测器套索程序是由于逐步回归的缺陷而不是我的一些缩放误差。
我已经读过cv.glmnet()
函数会自动缩放,然后自动缩放预测变量原样。任何人都可以验证这个吗?