标签: python tensorflow tensorflow-datasets
我知道Tensorflow支持使用tf.contrib.training.batch_sequences_with_states方法和状态保存RNN进行时间上的截断反向传播。但是,这需要使用队列运行器的常规方法。我正在使用新的tf.data.TFRecordDataset API进行工作,该API不需要开发人员显式调用队列运行器。但是,当我使用此API时,显然不支持随着时间的推移截断的反向传播。使用Tensorflow Dataset API是否还有其他有效的TBPTT替代方法?
tf.contrib.training.batch_sequences_with_states
tf.data.TFRecordDataset