seq2seq.py张量流中的编码器和解码器大小

时间:2017-01-24 11:12:26

标签: python tensorflow lstm encoder decoder

我已经完成了在张量流中的英法翻译代码。我有一些问题。

  1. 编码器和解码器中的层数和神经元数量是否必须相同?

  2. 单词的嵌入大小与隐藏层数之间的关系是什么? (在seq2seq_model.py中,嵌入大小设置为等于隐藏神经元的数量)。我们可以改变大小吗?

  3. 计算softmax_cross_entropy_with_logits的代码到底在哪里? (我已经完成了nn.py中的函数,但计算错误到底在哪里?)

0 个答案:

没有答案