什么是广义前馈神经网络(GFF)?

时间:2018-07-07 09:31:59

标签: neural-network artificial-intelligence

我在一些研究论文中遇到了GFF一词。我在https://www.semanticscholar.org/paper/The-Systematic-Trajectory-Search-Algorithm-for-the-Chen-Tseng/5c01686a41c31a6b7a9077edb323ed88cf158a98的GFF上找到一行,上面写着“ ...链接不仅限于从一层到下一层”。一层链接的一部分是否可以跳过下一层并馈送到另一个不相邻的层?如果是这样,那么相邻层的链接会做什么?有人可以照亮这种类型的网络吗?

1 个答案:

答案 0 :(得分:1)

我不确定您在哪里感到困惑。图1中的插图对我来说很容易澄清。是的,链接可以从任何层到任何更高层;链接不限于下一层。请注意输入层中的节点1如何驱动三层中的每一个的隐藏节点以及输出层。 [我将坚持节点1;这四个输入节点在拓扑上是相同的。]

我不确定您是否对“相邻层的链接”感到困惑。从您的用法中,我收集到您称其为源节点层所拥有的链接。例如,从节点5到节点8的链接“属于”第一(最低)隐藏层,而不是输出层。

在这种用法下,让我们来看一个特殊的情况:从节点1到节点6(中间隐藏层)的链接,跳过最低的隐藏层(由节点5组成)。为了说明起见,让我们忽略来自节点1的其他链接。现在,节点1正在驱动节点6,直接从输入层驱动它。跳过完全不影响其他链接:它们继续做它们所做的事情:将源节点的值驱动到目标节点的线性方程式中。节点5仍然是其他输入节点的功能;节点5继续驱动节点6、7和8。

也许可以通过跳过每一层中的“虚拟”节点来减轻您的后顾之忧。同样,让我们​​集中讨论从节点1(到节点5、6、7、8)的链接。与其让节点1跳过层,不如在低,中和高隐藏层中添加节点1.2、1.3和1.4。替换节点1中的“ skipper”链接。而是使用这些链接,从顶部(输出)到底部(输入)

1.4 -> 8
1.3 -> 1.4
1.3 -> 7
1.2 -> 1.3
1.2 -> 6
1   -> 1.2
1   -> 5

在顺序1-> 1.2-> 1.3-> 1.4中,所有链接(边)权重均为1,偏差为0。您现在拥有一个具有相同代数性质的拓扑,并且没有链接会跳过层。

请注意,任何个有限的非循环网络都是GFF。 “层”是我们设计的便利;拓扑仅通过从输入节点到输出节点的最长路径来限制节点的“层”。它可以帮助我们出于自身目的,定时,调试等目的将节点组织到各个层中,但是通用流模拟器并不在乎。它关心的只是哪些节点驱动其他节点,以及给定节点是否具有在下一个计算周期驱动其输出链接所需的所有输入。

有帮助吗?