标签: neural-network backpropagation
我试图找出一个问题,询问为什么如果在输入和输出之间添加不必要的附加层,MLP网络中的训练时间会急剧增加。 (这不是硬件问题)
我想这与反向传播过程有关。我知道重量更新只适用于导致错误的神经元..是否只是有更多的神经元,所以有更多的重量更新需要更长的时间?我不明白为什么这会导致一个戏剧性的'虽然增加了。任何帮助将不胜感激。