在张量流中n次迭代之后的OOM没有进一步的张量分配

时间:2017-08-12 22:42:11

标签: optimization tensorflow

有几次,当使用尽可能多的GPU内存时,我只在经过一定数量的训练迭代后才会遇到OOM错误(没有明确分配新的张量)。减少批量大小(即从32到30)总能解决问题,但我无法理解应该导致这种行为的原因。

谢谢!

0 个答案:

没有答案