循环神经网络中的跳过连接

时间:2019-12-21 18:46:00

标签: lstm recurrent-neural-network gated-recurrent-unit

在像著名的ResNet Paper这样的作品中,显示出跳过连接剩余构建基块,粗略地说,它们添加了该块的输入产生的输出结果,对于优化模型非常有帮助。 He等人紧随其后的类似论文,例如here

我的简单问题是:您认为将相同的想法应用于RNN的最重要/最有影响力的论文是什么?我发现有几篇文章可以对Google学术搜索进行快速搜索(我不想偏向任何人),但是我不确定其中哪一项真正重要。这里有RNN专家吗?

0 个答案:

没有答案