如何使用TensorFlow内置模型所需的最少GPU内存量?

时间:2018-09-19 11:40:04

标签: tensorflow

学习了如何为使用TensorFlow构建的模型分配GPU内存后,我了解到我可以做到:

  1. 分配总内存的一部分,或者

  2. 使用allow_growth分配模型所需的内存。

但是,似乎使用allow_growth并没有分配模型成功运行所需的最小内存。

例如,我已经实现了PVANet-Lite的修改版本(〜1.2 M参数)作为检测任务的主干。当我使用allow_growth时,程序占用了~4500MB的内存;但是当内存限制设置为800MB时,程序仍可以以相似的检测速率(fps)成功运行。

所以,我的问题是:

  1. TensorFlow是否可以选择将内存限制自动设置为模型所需的大小?
  2. 在这种情况下遇到的示例可能是什么原因?

0 个答案:

没有答案