sequence_length是否有助于dynamic_rnn的性能?

时间:2017-07-13 21:03:12

标签: tensorflow neural-network recurrent-neural-network machine-translation

Google's recent nmt tutorial中,他们这样说:

  

请注意句子有不同的长度以避免浪费计算,我们通过source_seqence_length告诉dynamic_rnn确切的源句长度

使用此代码: encoder_outputs, encoder_state = tf.nn.dynamic_rnn( encoder_cell, encoder_emb_inp, sequence_length=source_seqence_length, time_major=True)

但是,我正在阅读dynamic_rnn's documentation,并说:

  

参数sequence_length是可选的,用于复制状态     超过批次元素的序列长度时的零输出和输出。所以还有更多     为了正确而不是表现。

我只是想知道sequence_length是否真的有助于dynamic_rnn的性能,例如他们做了某种动态的分组?如果他们这样做,有什么地方我可以阅读更多关于它的内容吗?非常感谢。

0 个答案:

没有答案