使用tf.contrib.data.Dataset多次运行训练?

时间:2017-08-15 14:49:05

标签: tensorflow

我正在使用tf.contrib.data.Dataset API。基本上,我有dataset.batch(BATCH_SIZE).get_next()生成的输入张量,我现在可以做类似

的事情
for _ in range(100):
    sess.run(train_op)

重复列车步骤100次。我不需要提供任何内容,因为所有输入都来自dataset。在循环中执行此操作似乎是浪费,所以有没有办法告诉TF重复运行步骤100次而不必在每次迭代之间回退到Python代码?

我看到一些类似的问题,通过提供驻留在GPU上的持久性张量来阻止迭代之间的CPU-GPU传输,但这是一个不同的问题。

0 个答案:

没有答案