我观看了讲座并得出了反向传播的方程,但它是一个简单的例子,有3个神经元:一个输入神经元,一个隐藏的神经元和一个输出神经元。这很容易得出,但我如何对更多的神经元做同样的事情呢?我不是在谈论添加更多图层,我只是谈论在现有的三层中添加更多神经元:输入,隐藏和输出层。
我的第一个猜测是使用我只为3个神经元和3个层的网络导出的方程式,并迭代所有可能的路径到更大网络中的每个输出神经元,更新每个权重。但是,这会导致某些权重不止一次更新。我可以这样做,还是有更好的方法?
答案 0 :(得分:0)
如果你想了解更多关于反向传播的信息,我建议你阅读斯坦福大学http://cs231n.github.io/optimization-2/的这个链接,这将真正帮助你理解反向传播和下面的所有数学。