Tensorflow中的Adam Optimizer状态

时间:2018-07-11 15:03:42

标签: python tensorflow deep-learning

我正在使用Google合作平台上的Tensorflow训练CNN模型。我试图训练我的模型进行100000次迭代。我正在使用可在Tensorflow中使用的Adam优化器,它可以在内部自适应地降低学习率。由于帐户会话终止或其他节省时间的原因,我将在1000次迭代后保存模型,并从保存的检查点文件重新加载网络后恢复训练。

根据Tensorflow documentation的学习率是在每次迭代(时间步长)t中按如下方式计算的。

t <-t + 1 lr_t <-learning_rate * sqrt(1-beta2 ^ t)/(1-beta1 ^ t)

我的问题是,当我从保存的检查点文件中重新加载网络时,优化器状态是从先前的迭代中恢复(即变量t,beta2,beta1)(例如t = 1000)还是假设t = 0重新初始化?如果重新初始化它,那么从检查点文件重新加载模型后如何恢复优化器状态?

0 个答案:

没有答案