在简单的单层网络中,很容易计算出神经元的目标输出,因为它们与网络本身的目标输出相同。但是,在多层网络中,我不太清楚如何计算隐藏层中每个神经元的目标,因为它们不一定与最终输出有直接联系,很可能在训练中没有给出数据。如何找到这些值?
如果我错过了某些内容并且错误地解决了这个问题,我不会感到惊讶,但我仍然想知道。提前感谢任何和所有输入。
答案 0 :(得分:0)
取自this great guide pg。 18:
- 计算隐藏层神经元的错误。与输出层不同,我们不能 直接计算这些(因为我们没有Target),所以我们Back Propagate 它们来自输出层(因此是算法的名称)。这是通过 从输出神经元中获取错误并将它们运行回来 权重来获取隐藏层错误。
醇>
或者换句话说,你不是。你传播从输入到输出的激活,计算输出的错误,然后反向传播从输出返回到输入的错误(因此算法的名称) )。
在不幸的情况下,我发布的链接出现故障,可以通过谷歌搜索"反向传播算法3"找到。