标签: python gpu deep-learning theano keras
我正在尝试使用Keras库将深度学习应用于我的分类问题。我在GPU上运行它但内存耗尽(我的GPU已经老了),即使我使用批量大小为1.当我减小图像大小时它会工作;但重新调整大小的图像是如此模糊,我正在丢失重要信息。因此,准确性不是那么好。 我想知道在Keras中是否可以在每次迭代中将批量大小(不是完整数据集)的数量添加到共享变量中,并且在下一次迭代中再次加载新映像并更新共享变量?我读了一些Keras教程,但我不确定它是否可行,如果可行,怎么样?
如果你帮我解决这个问题,我将感激不尽。