在反向传播中为什么这是必要的,o(1-o)

时间:2014-03-02 22:50:34

标签: artificial-intelligence neural-network backpropagation

计算你将使用的反向传播中的错误,(目标out - act.out)* act.out *(1 - act.out)

那么,act.out *(1 - act.out)解决了什么呢?

不会,[目标 - 行动。 out]是输出错误的数量?

1 个答案:

答案 0 :(得分:3)

它解决了神经元输出相对于当前激活水平的导数。如果您使用logistic sigmoid作为激​​活功能,那么如果f(x)是激活x的sigmoid输出,则衍生df/dx等于f(x)(1 - f(x))。< / p>

在反向传播方程中,要确定您应该更改权重的程度,您需要估计输出对激活变化的敏感程度。这就是这个术语提供的内容。