使用代码和error logs链接到我的笔记本。
GraphDef大小似乎随着步数的增加而增加。如果做得好,我不认为这应该发生。但是当我只改变" display_step"变量,它允许我运行更多的步骤,直到错误发生。
关于如何解决这个问题的任何想法?
答案 0 :(得分:0)
我认为问题在于:您在训练循环中反复调用get_batch_train
,此功能通过tf.convert_to_tensor
动态创建张量。实际上,这会在每次迭代时在图形中创建新节点,从长远来看会导致OOM。
由于train_x
和train_y
被送到session.run
,因此无需手动将它们转换为张量。所以试着摆脱tf.convert_to_tensor
。