如何在TensorFlow中将一层的梯度传播回所有先前的层

时间:2019-04-18 21:16:39

标签: tensorflow machine-learning deep-learning

我正在尝试在TensorFlow中实现分布式深度学习模型,其中一个编码器和几个解码器分布在不同的机器上。编码器的最后一层以及解码器的第一层(我称其为“隐藏层”)是唯一可以从编码器机器的解码器机器上获得梯度的地方,但是我如何才能为编码器的前几层计算梯度呢?编码器仅提供“隐藏层”的渐变?任何建议将不胜感激。

我尝试用google搜索它,而大多数建议使用的'tf.opt.compute_gradient'和'tf.opt.apply_gradient'操作似乎无法解决我的问题。

0 个答案:

没有答案