TensorFlow - 了解translate.py中的嵌入

时间:2017-01-12 02:04:30

标签: tensorflow neural-network recurrent-neural-network

我的理解是translate.py实现了编码器 - 解码器模型,其中一步是将句子从输入语言翻译成固定长度的矢量。从translate.py doesnt use embedding?的帖子和我自己对代码的调查,我认为句子嵌入将存储在embedding_attention_seq2seq / RNN / EmbeddingWrapper / embedding:0中。但这是一个形状的变量,对应于我输入的词汇大小X层的大小。我不明白我如何在概念上将其解释为句子的编码。我理解中的错误在哪里?

1 个答案:

答案 0 :(得分:0)

嵌入层的名称 seq2seq / embedding_attention_seq2seq / RNN / EmbeddingWrapper / embedding:0

您可以使用以下内容显示所有变量:

for var in tf.trainable_variables():
  print var.name
embedding_attention_seq2seq ()函数定义中的