我正在尝试在celebA数据集上使用Tensorflow 2.0实现GAN。我尝试实现数据集API,因为图像无法容纳在Google colab的内存中。训练时,模型随每个训练步骤而缓慢增加。我看不到该内存从何处泄漏。我的想法是我不完全了解@ tf.function装饰器,因此尝试详细地删除训练步函数中的每个变量。
任何帮助将不胜感激。我在步骤250耗尽了内存。
我尝试删除训练步骤中创建的所有变量。我也尝试过在火车步骤外使用gc.collect(),但这也许不是收集gpu垃圾吗?
https://github.com/drissg1/DCGAN/blob/master/GAN.ipynb
我希望能够在不增加内存使用量的情况下进行训练。