神经网络-偏差值本身是否应该更新?

时间:2019-01-04 17:10:43

标签: neural-network

我了解在神经网络中产生偏见的想法。它用作偏移量。尽管我对应该如何使用它有很多误解,因为我阅读的每个教程似乎都有不同之处。我有两个主要问题。

1。是每个偏置常数的值还是在反向传播期间更新(或者也许只有偏置权重被更新,但偏置值本身保持不变)?

2。如果每一层都有一个,我应该如何考虑偏差。我应该像其他方法一样简单地获取偏差值和偏差权重的加权总和,还是应该做其他事情,例如在激活函数之前最后添加偏差? (哪个更快,更等效)。

我到处都有很多选择,但我不知道该关注哪个。

0 个答案:

没有答案