在Ng coursera和Michael A. Nielsen的书中,Gradient下降不同

时间:2017-11-28 12:14:30

标签: neural-network deep-learning backpropagation gradient-descent

我正在学习coursera中NG机器学习课程的神经网络以及Nielson的神经网络和深度学习。我对渐变后裔的理解有些困惑。我看到两种不同的形式可以通过NG和尼尔森之间的渐变下降来更新重量。

来自尼尔森的

the weight update formula

the chapter Two, section The backpropagation algorithm

来自NG:

the weight update formal

它们都用于在反向传播算法中转发传递后更新权重。在Neil版本中,似乎在NG版本中有一个学习评级-η,它没有任何学习评级,而且它更像是学习评级为+1。我对此非常困惑。是否有人可以帮助我理解它?

1 个答案:

答案 0 :(得分:1)

您展示的NG表格不包括参数更新,它仅涵盖渐变的计算。