我们知道,在培训期间,我们需要feed_dict一个batch_size数据。但是,在上一个时代,数据的数量小于批量大小。我可以做什么?我尝试使用变量batch_size,但我在使用rnn时遇到了一些问题。代码如下:
input_data = tf.placeholder(tf.int32, [None, num_steps])
with tf.variable_scope('forward'):
cellL = tf.nn.rnn_cell.BasicLSTMCell(hidden_size, forget_bias=1.0)
state_init_L = tf.get_variable("init_L",initializer=cellL.zero_state(tf.shape(input_data)[0],tf.float32))
错误是
ValueError:initial_value必须具有指定的形状: 张量(“model / init_variable_L / zeros:0”,shape =(?,100),dtype = float32, 设备= /设备:GPU:0)
感谢〜
答案 0 :(得分:0)
修改代码以始终生成固定大小的批次。
您可以删除最后几个培训示例。 或者您可以多次重复最后一个示例来填充批次。 当您有足够的数据时,一些丢失或重复的示例无关紧要。