我正在尝试在TensorFlow中实现随时间推移的截断的反向传播,其中我的数据来自Publishers.Sequence(sequence: urls)
.flatMap(maxPublishers: .max(1)) // <<<<--- here
{ url in
Publishers.Future<Result, Error> { callback in
myCall { data, error in
if let data = data {
callback(.success(data))
} else if let error = error {
callback(.failure(error))
}
}
}
}
,而不是tf.data.Dataset.from_generator
。我要抓住的是,我想按时输出步骤$ t $,将其传递给一个函数,然后在下一个时间步骤$ t + 1 $将输出馈送到网络中。
TensorFlow教程(https://www.tensorflow.org/tutorials/sequences/recurrent)建议使用for循环。这适用于渴望执行或与占位符配合使用,但我都不使用。我尝试切片输入tf.placeholder
,但收到错误self.rnn_cell(input_windows[:, i], state)
。这无济于事,因为我不能使用{TypeError}Tensor objects are only iterable when eager execution is enabled. To iterate over this tensor use tf.map_fn.
,因为一次迭代的输入就是前一次迭代的输出。