Tensorflow,保持培训成本函数的历史

时间:2018-04-19 18:57:19

标签: python tensorflow

我的目标是使用成本函数的历史来训练神经网络。例如,

损失= sum_ {k = T} ^ {20} || f_ {k} - f_ {k-1} ||

其中T是当前训练的迭代和||。||是通常的L2规范。我目前的尝试涉及维护占位符以将成本返回到主循环,但是这样,我不能使用tensorflow中的tf.gradients。

我不知道如何在python的tensorflow中实现这个,因为我想在tensorflow中使用自动微分工具来训练权重。非常感谢任何指导。

谢谢

0 个答案:

没有答案