TensorFlow火车批次多个时代?

时间:2018-02-25 19:02:25

标签: python tensorflow machine-learning

我不明白如何为多个纪元运行tf.train.batch的结果。它当然用完了一次,我不知道如何重新启动它。

  • 也许我可以使用tile重复batch_size
  • 如果我每次都可以重新绘制一个批处理 - 我需要0 {num_examples之间的num_epochs个随机整数。 (我的例子都在本地RAM中)。我没有找到一种简单的方法来立即获得这些随机抽奖。
  • 理想情况批次重复时也有重新洗牌,但是对我来说更有意义的是运行一个时代然后重新洗牌等,而不是将训练空间加入到自身{{1大小,然后洗牌。

我认为这是令人困惑的,因为我并没有真正构建输入管道,因为我的输入适合内存,但我仍然需要构建批处理,混乱和多个时期,这可能需要更多的输入管道知识。< / p>

1 个答案:

答案 0 :(得分:1)

tf.train.batch只是将上游样本分组,仅此而已。它旨在用于输入管道的 end 。数据和时期是上游处理的。

例如,如果您的训练数据适合张量,您可以使用tf.train.slice_input_producer来生成样本。这个函数有改组和时期的参数。