我决定制作遗传算法来训练神经网络。它们将通过遗传发展,其中一个(众多)可变基因应该是转移功能。
所以,我需要更深入地学习数学,这真的是时间的消耗。
我有三种转移功能基因的变种。
1)log sigmoid function
2)tan sigmoid功能
3)高斯函数
传递函数基因的一个特征应该是它可以修改函数的参数以获得不同形状的函数。
现在,我无法解决的问题是:
我在神经网络的输出上有错误,以及如何通过不同的函数使用不同的参数在权重上传递它?根据我的研究,我认为它与衍生物和梯度下降有关。
我是高级数学菜鸟。有人可以通过简单的例子向我解释如何通过参数化(用于exapmle)sigmoid函数来传播重量误差吗?
修改的 我还在做研究,现在我不确定我是否不会误解反向传播。我找到了这个文档 http://www.google.cz/url?sa=t&rct=j&q=backpropagation+algorithm+sigmoid+examples&source=web&cd=10&ved=0CHwQFjAJ&url=http%3A%2F%2Fwww4.rgu.ac.uk%2Ffiles%2Fchapter3%2520-%2520bp.pdf&ei=ZF9CT-7PIsak4gTRypiiCA&usg=AFQjCNGWZjabH5ALbDLgSOBak-BTRGmS3g 他们有一些计算权重的例子,它们不涉及传递函数到权重调整。
那么将传递函数纳入体重调整是不是必要的?
答案 0 :(得分:3)
反向传播确实与衍生物和梯度下降有关 我认为没有任何捷径可以真正理解数学,但这可能有所帮助 - 我为其他人写了基本相同的问题,并且至少应该从高层次解释发生了什么,以及为什么。< / p>