神经网络试图理解关于梯度的成本函数

时间:2017-08-31 18:53:51

标签: python neural-network derivative

class GenericListenerSupport<EventArgumentType> {
    /* Just use `(EventArgumentType) -> Unit` inside.  */
}

我理解有关前向传播的一切。请注意,这是一个简单的隐藏层网络,具有一个输入和一个输出,并且此过程不需要偏差。

我不明白的是。

Nr1时。

O.k。我们得到错误。这完全有道理。但我不明白sigmoid函数的派生如何在误差函数方面起作用。 在我的情况下,错误函数是y-l1,但我不明白什么是sigmoid派生函数真正解释的...在这种情况下很明显,如果l1更高,错误更低......那么为什么我们不要&#39;如果值误差比上一个时期更大或更小,那么只需用条件更新权重?我检查了每个时期的导数值和误差值,它们之间似乎有一些线性。如果错误变得更低,衍生品也会变得更低......我知道我在这个谜题中遗漏了一些东西,但是我还没有理解它。

0 个答案:

没有答案