我正在使用tf.contrib.data.Dataset API。基本上,我有dataset.batch(BATCH_SIZE).get_next()
生成的输入张量,我现在可以做类似
for _ in range(100):
sess.run(train_op)
重复列车步骤100次。我不需要提供任何内容,因为所有输入都来自dataset
。在循环中执行此操作似乎是浪费,所以有没有办法告诉TF重复运行步骤100次而不必在每次迭代之间回退到Python代码?
我看到一些类似的问题,通过提供驻留在GPU上的持久性张量来阻止迭代之间的CPU-GPU传输,但这是一个不同的问题。