我正在设计一个使用神经网络进行机器学习的模型。
在反向传播阶段,我不想让最后几层的节点加权发生变化。它在数学上是否可行?
答案 0 :(得分:2)
在keras中,您可以通过将trainable属性设置为false来实现此目的。 (https://keras.io/applications/#Fine-tune InceptionV3关于一组新的类)但是我将不得不支持另一个答案,并问你为什么要这样做。
答案 1 :(得分:0)
我将省略数学解释,只是解释神经网络将如何表现。
所以,假设您拥有5层神经网络,最后第五层权重不会改变。 在那种情况下会发生什么?
上一层的错误将传播回上一层(第四层),但没有任何更改,并且四个第一层将不得不处理 其他转换 的错误这是由输出层提供的。具有五层的神经网络将学习如何处理这种额外的错误转换。但问题是,为什么你需要提出这种错误转换?