说我的第一个输入层我有10个输入节点/神经元。说我的隐藏层也有10个神经元。我的第三层也是最后一层是一个输出神经元。
如何连接图层?是否有一种技术可以确定最佳方法,或者您是将每个输入神经元连接到每个隐藏层神经元,这两个层之间总共有100条边?
这可能是一个非常基本的问题,但我没有看到太多具体的例子。我发现的例子似乎要么连接所有神经元,要么连接似乎是随机的。
答案 0 :(得分:2)
如果有的话,这是基于直觉和实证结果。我见过人们使用递归神经网络。
使用前馈神经网络,将层n
中的所有神经元连接到层n+1
中的所有神经元是有意义的。
以下是我最新用法的示例(用于演示大量边缘):
答案 1 :(得分:2)
我认为如果你在输入节点和隐藏层之间切换一些链接,你就会人为地影响训练阶段。基本上你更重视其余的链接。
即使您将一个神经元与下一层中只有一小部分神经元连接起来,也就像让它们全部连接起来一样,但非连接神经元的通信权重为0 。训练算法实际上可能达到这种情况。
真正重要的是神经网络的架构和分配给神经元的每个输入/输出链路的权重。
因此,将输入层的10个输入节点中的每一个连接到隐藏层中的所有10个节点,并且让训练算法完成其工作。如果您有足够的培训和测试数据,它将产生预期的结果。
答案 2 :(得分:1)
我的理解是相邻层中的所有节点都应该连接。因此,所有10个输入节点应连接到隐藏层中的所有10个节点(100个连接)。然后隐藏层中的所有10个节点都应连接到输出节点(10个连接)。
在您的情况下,我认为连接总数应为110。