堆叠的双向cuDNN RNN在将其发送到下一层之前是否集成了来自两个方向的输出?

时间:2017-10-26 18:03:36

标签: tensorflow tensorflow-gpu rnn cudnn

我想知道基于cuDNN的RNN(LSTM或GRU),当它们是双向的并且配置有多个层时,是否在给定层n之前集成来自两个方向的输出将它发送到下一层n + 1,或者每个方向是否独立于另一个? (即前向层仅向上方的前向层发送信息,对于向后方向类似地发送信息)。

我希望它能够集成来自两个方向的输出,即使在性能方面,每个方向独立运行显然更快,因为如果内存允许,它可以同时运行所有层。

1 个答案:

答案 0 :(得分:1)

肯定地回答了here