特别是,glmnet docs意味着它为回归创建了高斯族的“广义线性模型”,而scikit-learn意味着没有这样的东西(即,似乎它是纯粹的线性回归,而不是一般化的) 。但我不确定这一点。
答案 0 :(得分:4)
在您链接到的文档中,存在一个优化问题,可以准确显示GLMnet中的优化内容:
1/(2N) * sum_i(y_i - beta_0 - x_i^T beta) + lambda * [(1 - alpha)/2 ||beta||_2^2 + alpha * ||beta||_1]
现在看看here,在那里你会找到与欧几里德规范优化相同的公式。请注意,文档省略了截距w_0
,相当于beta_0
,但代码确实估算了它。
另请注意,lambda
变为alpha
,alpha
变为rho
...
"高斯家庭"方面可能是指使用L2损失的事实,这对应于假设噪声是加性高斯。