在Keras中,如何将大于批大小的组中的图像加载到GPU?

时间:2019-06-06 17:13:50

标签: python machine-learning keras computer-vision

我有以下代码段:

model.fit(x=train_x, y=train_y, batch_size=32, epochs=10, verbose=2, validation_data=(val_x, val_y), initial_epoch=0)    
print(model.evaluate(test_x, test_y))

我的GPU仍可以使用1024的批处理大小。但是,这将严重惩罚模型更新的频率。是否可以将1024个组中的图像加载到GPU,但每32个图像调整模型的权重?

我的意图是通过减少GPU必须从主内存中获取数据的次数来提高性能,因为此操作涉及高延迟。我的问题与此类似:How can you load all batch data into GPU memory in Keras (Theano backend)? 但是,由于数据集太大,我不必尝试一次将所有数据加载到GPU。

谢谢!

0 个答案:

没有答案