我创建了一个CNN,其输入形状为(None, None, channels)
,使用GlobalAvgPool2D
可以得到一个通用的输出尺寸。由于某些原因,我将不进行讨论,因此我正在循环训练,一次提供一个训练图像。我使用model.train_on_batch(in, out)
,其中in
的大小为(1, X, Y, 1)
。 X
和Y
每次都会更改。经过数百次传递后,Tensorflow变得不满意,并最终因GPU中的OOM崩溃。
我的代码在隔离的网络上,但是在这种情况下是否存在某些明显的错误,我可能在做某种形式的内存泄漏?通常,它似乎效率很低,就像必须为每个新的输入大小重新构建网络一样。