在Google's recent nmt tutorial中,他们这样说:
请注意句子有不同的长度以避免浪费计算,我们通过source_seqence_length告诉dynamic_rnn确切的源句长度
使用此代码:
encoder_outputs, encoder_state = tf.nn.dynamic_rnn(
encoder_cell, encoder_emb_inp,
sequence_length=source_seqence_length, time_major=True)
但是,我正在阅读dynamic_rnn's documentation,并说:
参数
sequence_length
是可选的,用于复制状态 超过批次元素的序列长度时的零输出和输出。所以还有更多 为了正确而不是表现。
我只是想知道sequence_length是否真的有助于dynamic_rnn的性能,例如他们做了某种动态的分组?如果他们这样做,有什么地方我可以阅读更多关于它的内容吗?非常感谢。