假设我有1个具有8GB内存的GPU,我正在使用Tensorflow和Keras进行10倍交叉验证来训练我的模型。 我开始培训,并通过观看nvidia-smi观察GPU上发生的情况。 当我开始训练时,keras会占用整个内存(最大可用内存) 并成功完成第一折。 当第二次折叠训练开始时,出现“资源过多错误”,我想它会尝试再次占用整个内存,但从第一次折叠中永远不会释放内存。这有道理吗?
我正在使用config.gpu_options.allow_growth = True,它允许我仅使用所需的内存。
每次折叠后,我如何强迫喀拉拉邦释放记忆?