我读了一本书,其中作者提到偏差b k 用于对输出u k 进行仿射变换(求和加权输入信号)。
作者还提到,由于这种给定常数k的偏差,使得'k'使神经元不连接到上一层。
我处于混乱状态。有人可以告诉我以上两点是什么意思,以及是否还有其他偏向网络的用途?
谢谢!
答案 0 :(得分:-1)
如果神经元激活为z(a)= wa + b,则b为偏差。这是一个偏差,因为它越大,该神经元的偏差就越大,或者换句话说,它并不关心从最后一层传递给它的内容(a)。我假设第二点是指这样的事实:如果偏差足够大(正值或负值),就好像神经元不再关心传递给它的内容一样,它总是将相同的东西传递给下一层。我需要在上下文中查看它以确定作者在说什么,但是总的来说,您只需要了解它是一个可以增加偏差的常数(不必关心最后一层的作用)。不过,不要太担心它的含义,因为学习(或优化)过程将自动调整这些含义,因此您不必为网络选择适当的偏差值。随着您对概念的熟悉,它将变得更加有意义