标签: python machine-learning scikit-learn
我想在sklearn中实现linear_model.Ridge()的LAD版本。意味着正则化仍然在L2范数上完成,但模型最小化绝对偏差的总和而不是误差的平方。这意味着我们要尽量减少
这可能吗?
答案 0 :(得分:2)
如果您使用scikit中的SGDRegressor学习指定的 epsilon_insensitive 损失函数并将 epsilon 值设置为零,您将获得相当于LAD具有L2正则化。