标签: tensorflow
我在Tensorflow中使用优化器最小化随机丢失函数energy。我还没有找到一种保留旧参数的方法,但是当我的参数(而不是我的损失函数)收敛时,我想停止训练。例如,如果我只是在训练mu我想做类似
energy
mu
sess.run(tf.while_loop(mu_converged, update, [(mu, mu_old)]))
而不是
for _ in range(1000): sess.run(optimizer.train(loss))
谢谢!