为什么偏差项在岭回归中没有正则化?

时间:2012-09-25 07:40:56

标签: machine-learning classification

在大多数分类(例如逻辑/线性回归)中,偏差项在正则化时被忽略。如果我们不规范偏见项,我们会得到更好的分类吗?

1 个答案:

答案 0 :(得分:10)

示例:

Y = aX + b

正规化的基础是Y上的过度拟合是由a“过于具体”造成的,可以说,这通常表现为a的大值{元件。

b仅仅抵消了这种关系,因此其规模远不如此问题重要。此外,如果出于任何原因需要大的偏移量,将其正则化将阻止找到正确的关系。

所以答案就在于此:在Y = aX + b中,a与解释变量相乘,b会被添加到其中。