使用tf.train.start_queue_runners进行Tensorflow内存泄漏(sess = sess_

时间:2016-07-20 17:26:55

标签: image-processing memory-management tensorflow

我已经构建了一个尺寸为1750 * 1750的卷积网络,但它占用的内存比它应该多得多,在四个测试图像上使用27千兆字节。

在我添加tf.train.start_queue_runners(sess = sess)后发生了。之前,没有问题。

有很多代码,所以可以在这里找到所有代码:http://structml.github.io/Neural-Network-Prostate/

我的代码应该没有任何问题,因为我已经彻底检查过并从CIFAR-10代码中借用了一些代码。

这是什么问题?是我的代码还是Tensorflow库的东西。请记住,输入函数是从Google Cifar-10示例中复制的。

下面是调用队列运行程序的主文件。

 import Input
 import Process

 import tensorflow as tf

 def train():
     with tf.Session() as sess:
          images, labels = Process.inputs()

         forward_propgation_results = Process.forward_propagation(images)

         train_loss, cost = Process.error(forward_propgation_results, labels)

         init = tf.initialize_all_variables()

    tf.train.start_queue_runners(sess=sess)

    sess.run(init)

    for i in range(100):
        print(sess.run([train_loss, cost]))
        print(test)

 def main(argv = None):
     train()

 if __name__ == '__main__':
   tf.app.run()

0 个答案:

没有答案