LSTM Tensorflow中的batch_size和max_time

时间:2019-02-11 11:51:59

标签: tensorflow machine-learning lstm recurrent-neural-network data-pipeline

背景: 我正在尝试在张量流中建模多层LSTM。我正在使用通用功能来展开LSTM:

tf.nn.dynamic_rnn

这里我正在使用time_major = True,所以我的数据必须为[max_time, batch_size, depth]格式。

根据我的理解,max_time是该系列的时间步。我的输入是[224],一开始我要进入FC层以使其达到标签的大小

问题

我正在使用数据管道来获取one_hot向量(长度= 70)的批次(32)中的标签。

70个长度向量对应于1个时间步长。

那么我该如何输入[32,32,70]?目前我有[32,70] (batch_size,num_classes)

如果错误,请更正我的理解。

我可以只通过[1,32,70],以便tensorflow自己检测到,每个批次都在步骤1的时间了吗?

0 个答案:

没有答案