将推理模型加载到GPU后,RAM使用率很高

时间:2019-04-04 15:36:51

标签: tensorflow gpu caffe pytorch darknet

在自定义图像上训练了YOLOv2架构,并冻结了图形后,模型权重(.pb)文件的大小为268MB,一旦我们将其加载到gpu进行推断,就会消耗7.93GB RAM。我知道tensorflow在开始的每个阶段都会为输出数据分配缓冲区。请有人可以解释一下为什么tensorflow会占用这么多内存吗?

0 个答案:

没有答案