lstm与变量batch_size

时间:2016-10-26 00:59:50

标签: python tensorflow lstm

我们知道,在培训期间,我们需要feed_dict一个batch_size数据。但是,在上一个时代,数据的数量小于批量大小。我可以做什么?我尝试使用变量batch_size,但我在使用rnn时遇到了一些问题。代码如下:

input_data = tf.placeholder(tf.int32, [None, num_steps])

with tf.variable_scope('forward'):

    cellL = tf.nn.rnn_cell.BasicLSTMCell(hidden_size, forget_bias=1.0)
    state_init_L = tf.get_variable("init_L",initializer=cellL.zero_state(tf.shape(input_data)[0],tf.float32))

错误是

  

ValueError:initial_value必须具有指定的形状:   张量(“model / init_variable_L / zeros:0”,shape =(?,100),dtype = float32,   设备= /设备:GPU:0)

感谢〜

1 个答案:

答案 0 :(得分:0)

修改代码以始终生成固定大小的批次。

您可以删除最后几个培训示例。 或者您可以多次重复最后一个示例来填充批次。 当您有足够的数据时,一些丢失或重复的示例无关紧要。