训练Google Colab Tensorflow 2.0 GAN模型期间的内存泄漏

时间:2019-06-11 20:51:28

标签: tensorflow memory google-colaboratory tensorflow2.0

我正在尝试在celebA数据集上使用Tensorflow 2.0实现GAN。我尝试实现数据集API,因为图像无法容纳在Google colab的内存中。训练时,模型随每个训练步骤而缓慢增加。我看不到该内存从何处泄漏。我的想法是我不完全了解@ tf.function装饰器,因此尝试详细地删除训练步函数中的每个变量。

任何帮助将不胜感激。我在步骤250耗尽了内存。

我尝试删除训练步骤中创建的所有变量。我也尝试过在火车步骤外使用gc.collect(),但这也许不是收集gpu垃圾吗?

https://github.com/drissg1/DCGAN/blob/master/GAN.ipynb

我希望能够在不增加内存使用量的情况下进行训练。

0 个答案:

没有答案