我有一个张量流模型,保存为协议缓冲区格式为model.pb
,184 MB
。当我使用会话加载它时,我看到该进程占用了GPU RAM的11 GB
。为什么会这样?
答案 0 :(得分:0)
默认情况下,Tensorflow使用所有GPU内存以最大程度地减少内存碎片(请参阅documentation)。您可以通过使用allow_growth配置选项来防止此行为:
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config, ...)