我是计算机科学研究生课程的学生。昨天我们进行了关于神经网络的讲座。 我想我了解神经网络中感知器的特定部分,但有一个例外。我已经对感知器的偏见进行了研究,但仍然没有。 到目前为止,我知道,有了偏差,我就可以操纵输入上的总和,并具有权重,以评估总和减去特定偏差是否大于激活函数阈值(如果函数应触发(Sigmoid))。 但是在我教授的演讲幻灯片中,他提到了这样的事情:
将偏差添加到感知器,以避免出现所有输入都存在的问题 可以等于零-没有乘性权重会起作用
我不知道这句话的含义是什么,为什么重要,所有加权输入的总和不能等于零?如果所有输入都等于零,那么应该不会影响下一个隐藏层中的下一个感知,对吗?此外,该感知是反向传播的静态值,并且不会影响感知时更改此权重。 还是我错了?
有人为此提供解决方案吗? 预先感谢
答案 0 :(得分:0)
偏差本质上是偏移量。
想象一下单个感知器的简单情况,它在输入和输出之间具有关系,例如:
y = 2x + 3
在没有偏差项的情况下,感知器可以匹配“ 2” 的斜率(通常称为权重),这意味着它可以学习:
y = 2x
,但与“ + 3” 部分不匹配。
尽管这是一个简单的示例,但此逻辑通常可扩展到神经网络。神经网络可以捕获非线性函数,但通常需要一个偏移量。
您的教授说的是另一个很好的例子,说明了为什么需要补偿。想象一下,一个感知器的所有输入都是0。感知器的输出是每个输入的总和乘以权重。这意味着将每个权重乘以0,然后相加。因此,结果将始终为0。
但是,如果存在偏差,输出仍然可以保留一个值。