标签: tensorflow tensorflow-gpu rnn cudnn
我想知道基于cuDNN的RNN(LSTM或GRU),当它们是双向的并且配置有多个层时,是否在给定层n之前集成来自两个方向的输出将它发送到下一层n + 1,或者每个方向是否独立于另一个? (即前向层仅向上方的前向层发送信息,对于向后方向类似地发送信息)。
我希望它能够集成来自两个方向的输出,即使在性能方面,每个方向独立运行显然更快,因为如果内存允许,它可以同时运行所有层。
答案 0 :(得分:1)
肯定地回答了here。