我是Python的新手,我想适应脊二项式回归。 我知道二项式回归可用于: http://statsmodels.sourceforge.net/devel/glm.html
我也知道带有L2惩罚的逻辑回归可以用sklearn.linear_model拟合。
http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html
由于二项式是伯努利的总和,我可以在将二项式结构数据转换为伯努利结构后,通过改变第i行来使用scikit:
(size_i,success_i)
到长度size_i的向量中记录success_i 1和size_i - success_i 0。 但是,这对我来说不起作用,因为size_i非常大。
有没有办法使用Python来拟合二项式岭回归?
答案 0 :(得分:2)
statsmodels GLM还没有完全的惩罚支持,但它现在在主人中有弹性的净L1 / L2惩罚。 它尚未包含在在线文档中
GLM(...).fit_regularized(alpha=..., L1_wt=0)
只适合L2 Ridge的恶搞。
警告:因为这是一项刚刚合并但尚未出现大量使用的功能,所以它仍然被认为是实验性的。它应该产生正确的结果,但API和实现很可能仍会改变。