hdf5 keras模型 - 非常大。重新训练会导致OOM错误

时间:2017-08-04 05:06:17

标签: python tensorflow keras

我训练了一个网络并将模型保存为hdf5文件。我正在使用Keras库进行培训。但是文件非常大~3.6GB。我无法继续训练过程,因为该程序会引发“内存不足”的问题。错误。我将批量大小从128减少到8,并抛出相同的错误。当我遇到新数据/想要训练几个时代时,我想重新训练现有的模型。

使用12GB GPU RAM,65GB CPU RAM。

2GB训练图像,1GB训练标签。

有什么方法可以解决这个问题吗?

0 个答案:

没有答案