正如问题所说......有没有办法改变Optimizer对象的学习率?所以说我使用先前模型的快照继续一些训练过程,但是自创建快照以来,我意识到我的模型正在跳过能量范围而不是安定下来并产生一些漂亮的输出。有没有办法加载Optimizer对象并设置post-hoc的新学习率?
python内存空间中的对象字段_lr和数字上相等的_lr_t(在tf内存空间中),但是_lr的赋值不会改变_lr_t的值。据推测,它因此不会影响图表上的计算。 Sooo,如何改变学习率?我是否必须构建一个新的Optimizer对象,然后必须将其附加到网络输出?而忽略了#34; old"优化器对象是从快照还原的吗?
如果是这样,那在内存方面似乎有点浪费,在代码方面看起来很混乱,而不仅仅是提供一些setter。