TensorFlow:使用TensorFlow tf.data.Dataset.from_generator将先前的输出作为输入传递给rnn下一步

时间:2019-06-18 21:16:54

标签: tensorflow backpropagation

我正在尝试在TensorFlow中实现随时间推移的截断的反向传播,其中我的数据来自Publishers.Sequence(sequence: urls) .flatMap(maxPublishers: .max(1)) // <<<<--- here { url in Publishers.Future<Result, Error> { callback in myCall { data, error in if let data = data { callback(.success(data)) } else if let error = error { callback(.failure(error)) } } } } ,而不是tf.data.Dataset.from_generator。我要抓住的是,我想按时输出步骤$ t $,将其传递给一个函数,然后在下一个时间步骤$ t + 1 $将输出馈送到网络中。

TensorFlow教程(https://www.tensorflow.org/tutorials/sequences/recurrent)建议使用for循环。这适用于渴望执行或与占位符配合使用,但我都不使用。我尝试切片输入tf.placeholder,但收到错误self.rnn_cell(input_windows[:, i], state)。这无济于事,因为我不能使用{TypeError}Tensor objects are only iterable when eager execution is enabled. To iterate over this tensor use tf.map_fn.,因为一次迭代的输入就是前一次迭代的输出。

0 个答案:

没有答案