在以下wiki的iteration1图像中,您可以看到一个基本的神经网络: http://www.heatonresearch.com/wiki/Back_Propagation
如果你看一下隐藏层的第一个神经元(H1),你会发现总和是:-0.5313402159445314 输出为:0.3702043582229371
我无法弄清楚输出是如何计算的。如果我在和值上使用sigmoid或双曲正切函数,我会得到不同的结果。
由于
答案 0 :(得分:2)
他们正在使用Sigmoid activation function。
公式为1 /(1 + exp(-x))。
我们可以通过以下方式检查Python:
from math import exp
x=-0.5313402159445314
print 1./(1.+exp(-x))
打印0.370204358223