如何在离线反向传播中为每个神经元计算激活函数?

时间:2015-04-15 19:41:21

标签: neural-network backpropagation

在离线反向传播中,在计算每个训练样本时累积误差,并且为所有训练样例计算反向传播规则(权重修改器)中的增量。然而,该规则实际上是学习速率乘以该增量和前一层中神经元的激活函数f的输出。例如,对于神经元I和神经元J之间的权重,f确实是I的激活函数。

我不知道的是在这种情况下如何采用f的参数,因为我们正在考虑多个输入示例。它是否被视为每个输入模式的激活函数的总和?

0 个答案:

没有答案