当试图建立一个可以作为XOR门的神经网络时。
感知器在数学上不可能学习如何作为异或门。
它只能通过至少3个神经元的隐藏层来实现。
编辑:事情是,如果你再添加一个隐藏层,它将需要很长时间来学习问题,甚至更奇怪但它的输出每次都会相同,直到它最终知道问题。那是为什么?
为什么在尝试对XOR门进行建模时,具有多个隐藏层的NN会以这种方式中断?
问题不能简单,因为有太多的权重需要更新,因为我在一个隐藏层中训练了一个拥有100,000个神经元的网络,并且它比你添加多个隐藏层要快得多。
这里有一个更深层次的问题,我认为需要解决,并担心我无法轻易找到有关此问题的任何信息。