在rnn tensorflow中输入单词预测模型时,
为什么我们需要一个3d张量?
请看下面的代码。
为什么我们需要额外的1
?
x = tf.placeholder("float", [None, n_input, 1])
答案 0 :(得分:0)
嗯,我猜你使用的是简单的预测模型,也许只是为了演示。我们尝试使用RNN来预测模型,其基本思想是句子中的每个单词都会受到前一个或后一个单词(我们称之为上下文)的影响,因此我们使用单词中的顺序输入。句子代表单词随着时间的推移逐一出现
因此,我们需要一个形状为[batch_size, words_counts, words_represent]
的Tensor,在您的情况下,words_counts
n_input
代表time steps
,单词代表张量words_represent
为shape { {1}}元组
但是,在实际操作中,我们不只是将每个单词转换为(1, )
元组,我们可以使用单词嵌入来创建一个有意义且有用的张量表示单词。所以也许我猜你已经尝试过一个简单的演示,或者我可能会犯错误。