相同的代码在不同版本的tensorflow上运行,但分配了不同的gpu内存

时间:2019-10-29 06:34:00

标签: tensorflow

在我的两个系统(P40,CUDA9,CUDNN7)中,分别安装了tf1.8和tf1.12,并且在tf1.12中运行的同一段代码几乎使分配的gpu内存是tf1.8中的两倍。 / p>

我编写了以下代码来简化比较。此时,在tf1.8中,分配了1241MiB gpu内存,在tf1.12中,分配了737MiB gpu内存。如何在TF中优化GPU内存分配?任何建议将不胜感激。

import tensorflow as tf                                                                                                              
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
config.allow_soft_placement = True
a=tf.get_variable('a',(100,100))
b=tf.get_variable('b',(10000,10000))
sess=tf.Session(config=config)
sess.run(tf.global_variables_initializer())

0 个答案:

没有答案