Delta规则神经网络教学。必要的算法解释

时间:2012-02-01 19:52:16

标签: algorithm neural-network

我正在做一项研究,一个关于神经网络的项目。只是为了我自己。早些时候,我已经设法理解了反向传播教学算法,它的基础知识,当然不是整个故事。但是很多资源都引用了delta规则,这有点特殊。我已经设法理解这里的权重是逐一修改的。但是有很多问题。你能解释一下它是如何工作的,但是它比维基百科更平易近人。只是算法,但有一个明确的步骤解释和'如何工作'。


顺便说一句,有用于教学的衍生物。无法理解为什么。 是的,除非它有所帮助,否则不需要特殊的源代码。

2 个答案:

答案 0 :(得分:3)

总的想法是将神经网络视为权重w_ij的函数而不是输入:目标是最小化实际输出和目标之间的误差输出您的训练数据。对于每个(输入/输出)训练对,增量规则确定调整w_ij以减少该训练对的错误所需的方向。通过对每个训练对采取短步骤,您可以找到最适合整个训练语料库的方向。

想象一下,你正处于一个巨大的山区滑雪胜地的中间,这个滑雪胜地太复杂了,无法立即理解 - 但如果你的工作是要把它弄到底部,你需要做的就是从你所在的地方下山站着。这称为梯度下降方法:从您所在的位置找到最陡峭的斜坡,然后向该方向迈出一步。足够的步骤将在底部看到你;对于神经网络,“底部”是一个最适合您的训练数据的神经网络。

这就是你需要导数的原因:导数是斜率,结果很容易计算 - 这是你的delta规则。衍生物用于教学,因为这是他们首先获得规则的方式。

对于delta规则的逐步推导,我恐怕无法改进您所引用的wikipedia article

答案 1 :(得分:2)

也许这个资源会帮助你很多(如果你还没有发现它) http://www.ml-class.org 在这里,您可以找到完美的视频讲座(15分钟或更短),其中一些讲述数学背景和直觉,它们支持背向传播算法。希望它会有用。