渐变回传播到多个dynamic_rnn?

时间:2016-11-26 06:37:31

标签: python tensorflow

我在模型中使用了两个堆叠dynamic_rnn,这意味着第二个initial_state的{​​{1}}是第一个dynamic_rnn的{​​{1}}输出。我的损失函数仅根据第二个final_state的{​​{1}}来计算。我的问题是,渐变会回传到第一个dynamic_rnn吗?

你可能会问我为什么我粗略地使用两个output而不是一个dynamic_rnn。答案是,对于我的问题,除了最后一步,大多数输入序列完全相同。因此,我只需为所有这些输入序列的公共部分运行dynamic_rnn一次,以节省时间并将dynamic_rnn提供给接受不同和最后输入元素的另一个dynamic_rnn。< / p>

假设我们有3个长度为10的序列。除最后一步(第10个元素)外,所有这些序列都是相同的。简化代码:

final_state

1 个答案:

答案 0 :(得分:0)

它应该。如果您发现问题,请更详细地描述您所遇到的错误。