我正在训练LSTM并尝试使用tf摘要查看Tensorboard的损失 但是当我使用tf.summary时,经过数步操作,该工作被OOM杀死。 下面是我的tf版本1.12的代码
next_element = data_it.get_next() summary_writer = tf.summary.FileWriter(save_path,sess.graph)
while(True):
batch = sess.run(next_element)
'some lstm forward'
...
...
merge = tf.summary.merge_all()
summary = sess.run([merge], feed_dict)
summary_writer.add_summary(summary, step)
...
当我注释掉最后三行时,它会训练到最后。 知道为什么会这样吗?