我注意到fit_generator
时,steps_per_epoch参数通常会被指定为total_samples//batch_size
。
但是如果我的total_samples是1000而我的batch_size = 32
,那么它似乎是。{
我应该有31.25批次,但我每个时期只分配31批次。
这是否意味着我无法训练不完整的批次?
我假设shuffle
选项可以解决这个问题,
但如果我假设自定义生成器,那么shuffle
选项是否仍然有效?
答案 0 :(得分:3)
是的,这里只会为您分配31个步骤。你需要做的是这样做:
numpy.ceil(total_samples//batch_size)
因为,模型可以接受任意数量的输入,因此即使最后一批小于32也可以使用。