我不理解fit_generator()
方法的设计。在我的例子中,样本数量可能会有所不同,除非事先通过整个数据集,否则我无法事先确定样本数量。
model.fit_generator(generator=batch_generator(train_data),
samples_per_epoch=10000,
nb_epoch=1,
nb_worker=1)
在我的场景中,我记录了几圈。由于这些圈数没有同样快速完成,每圈的样本的数量可能会有所不同。
如果我可以简单地抛出一个StopIteration
异常来表示一个时代的结束,那将是很好的。更好的是EpochEnd
和TrainingEnd
例外来控制基于这些例外的时期和整个训练,但我想这是不可能的。
但是,我想知道我是否可以使用类似fit_generator()
的内容,而无需知道每个时代的样本数量。