我为训练RNN生成了一个张量,输入大小为[batch_size, max_time_step, num_features]
,但由于多个训练样本没有相同的time_step
,我在末尾用零填充它们以匹配训练样本,该特定批次具有max_time_step
。然而,train_seq_len
具有一维向量time_step
中每个输入样本的实际[batch_size]
值。对于标签,它们以稀疏张量的形状[batch_size, max_label_size]
存在,其中小于max_label_size
的标签向量用零填充。
我的问题是针对tf.nn.ctc_loss(inputs, labels, sequence_length)
,此处要求的sequence_length
是train_seq_len
我已在上面定义过?或者是label_size_len
,一个大小为[batch_size]
的一维向量,包含每个标签向量的label_size
?
答案 0 :(得分:2)
sequence_length是后者:批量大小长度向量。