标签: neural-network backpropagation
在离线反向传播中,在计算每个训练样本时累积误差,并且为所有训练样例计算反向传播规则(权重修改器)中的增量。然而,该规则实际上是学习速率乘以该增量和前一层中神经元的激活函数f的输出。例如,对于神经元I和神经元J之间的权重,f确实是I的激活函数。
我不知道的是在这种情况下如何采用f的参数,因为我们正在考虑多个输入示例。它是否被视为每个输入模式的激活函数的总和?