我们将tf.nn.ctc_loss用于哪个sequence_length

时间:2017-03-23 01:35:21

标签: tensorflow

我为训练RNN生成了一个张量,输入大小为[batch_size, max_time_step, num_features],但由于多个训练样本没有相同的time_step,我在末尾用零填充它们以匹配训练样本,该特定批次具有max_time_step。然而,train_seq_len具有一维向量time_step中每个输入样本的实际[batch_size]值。对于标签,它们以稀疏张量的形状[batch_size, max_label_size]存在,其中小于max_label_size的标签向量用零填充。

我的问题是针对tf.nn.ctc_loss(inputs, labels, sequence_length),此处要求的sequence_lengthtrain_seq_len我已在上面定义过?或者是label_size_len,一个大小为[batch_size]的一维向量,包含每个标签向量的label_size

1 个答案:

答案 0 :(得分:2)

sequence_length是后者:批量大小长度向量。