是否有替代fit_generator()而无需设置samples_per_epoch?

时间:2017-02-28 10:32:49

标签: keras

我不理解fit_generator()方法的设计。在我的例子中,样本数量可能会有所不同,除非事先通过整个数据集,否则我无法事先确定样本数量。

model.fit_generator(generator=batch_generator(train_data),
                            samples_per_epoch=10000,
                            nb_epoch=1,
                            nb_worker=1)

在我的场景中,我记录了几圈。由于这些圈数没有同样快速完成,每圈的样本的数量可能会有所不同。

如果我可以简单地抛出一个StopIteration异常来表示一个时代的结束,那将是很好的。更好的是EpochEndTrainingEnd例外来控制基于这些例外的时期和整个训练,但我想这是不可能的。

但是,我想知道我是否可以使用类似fit_generator()的内容,而无需知道每个时代的样本数量。

0 个答案:

没有答案