数据集API - 批处理的可变输入大小

时间:2018-05-20 06:48:40

标签: tensorflow tensorflow-datasets

我正在训练一个可以接受可变输入大小的模型(它是一个完全卷积网络),它具有相当复杂的输入管道。

这就是为什么我必须使用数据集api的from_generator方法来处理所有逻辑。

但是,我希望能够在不同大小的图像批次上训练网络。 例如。对于第一批,输入图像的大小可以是200x200,但对于下一个,它可以是300x300。

我想将此过程随机化为各种尺寸范围(例如,从100x100到2000x2000)。

使用feed_dict这将是非常简单的:我会在每个火车步骤准备一个具有特定图像大小的批次。

有没有办法使用(高性能)数据集api来做到这一点,这样我可以利用多线程/预取而不需要太多工作?

1 个答案:

答案 0 :(得分:1)

您最好的选择是从您想要支持的每个不同小批量大小的数据集开始,在每个这样的数据集中进行批处理,然后在构建迭代器之前对它们进行交错。