我使用tf.train.string_input_producer()
和tf.train.shuffle_batch()
来读取数据。
由于我没有良好的停止标准,我通过Ctrl-C
手动终止培训计划。
我发现每次以这种方式终止程序时,都会释放大量内存(通过“free -g”命令检查)。
当我使用top
命令时,没有使用这些内存的程序。
经过一些训练后我必须重新启动我的机器以释放这些内存。
是因为我没有明确关闭这些队列吗?我认为那些内存应该存储我的输入数据,否则它不会那么大(50GB)。
感谢。