我对tf.train.batch的行为有疑问,如果它打算为多个纪元提供批次。我有一个带有多个SequenceExamples的TFRecord,我想要处理多个时期。 我注意到批处理操作接受参数allow_smaller_final_batch。我打算如何运行一个纪元如下:编写一个循环,获取等于示例总数除以批量大小的批次,并在批次上运行我的模型。
我的批次将基于string_input_queue,它会生成相同的文件名num_epoch次数。我现在的问题是:每个纪元的最终批次是否具有较小的尺寸,具有该参数集,或者只有我最后一个纪元的最后一批具有较小的尺寸?因为如果是这样的话,我会在所有的纪元都完成之前得到一个OutOfRangeException,我会想。
那么:tf.train.batch究竟是如何处理这些案件的呢?我的方法是运行多个时代的正确方法,还是有更好的时代?