标签: gpu tensorflow
我有一个非常简单的CNN设置(3个卷积层到一个完全连接的层),使用Geforce GTX 960 GPU和4GB内存。我遇到了GPU资源耗尽的问题,而在玩游戏时我发现如果我放置一个池化层(它将图层的整体大小减少了4倍),它实际上使问题变得更糟。换句话说,我正在耗尽资源,然后在删除池层后,我能够训练。我直觉地认为,由于池化层会在训练的优化过程中减少下游操作的数量,这将有助于内存限制。有没有人知道最大池层如何可能添加操作并增加这样的内存?