如何在TensorFlow中处理具有可变长度序列的批次?

时间:2016-01-08 05:29:21

标签: python tensorflow lstm recurrent-neural-network

我试图使用RNN(特别是LSTM)进行序列预测。但是,我遇到了可变序列长度的问题。例如,

sent_1 = "I am flying to Dubain"
sent_2 = "I was traveling from US to Dubai"

我正在尝试使用基于此Benchmark for building a PTB LSTM model的简单RNN预测当前的下一个单词。

但是,num_steps参数(用于展开以前的隐藏状态)应该在每个Tensorflow的纪元中保持不变。基本上,由于句子长度不同,因此无法批量处理句子。

 # inputs = [tf.squeeze(input_, [1])
 #           for input_ in tf.split(1, num_steps, inputs)]
 # outputs, states = rnn.rnn(cell, inputs, initial_state=self._initial_state)

在这里,num_steps需要在每个句子的情况下进行更改。我尝试了几次黑客攻击,但似乎没有任何工作。

5 个答案:

答案 0 :(得分:21)

您可以使用以下描述的bucketing和padding的想法:

Sequence-to-Sequence Models

此外,创建RNN网络的rnn函数接受参数 sequence_length。

例如,您可以创建相同大小的句子桶,使用必要数量的零填充它们,或者使用代表零字的占位符,然后将它们与seq_length = len(zero_words)一起提供。

seq_length = tf.placeholder(tf.int32)
outputs, states = rnn.rnn(cell, inputs, initial_state=initial_state, sequence_length=seq_length)

sess = tf.Session()
feed = {
    seq_length: 20,
    #other feeds
}
sess.run(outputs, feed_dict=feed)

看看这个reddit线程:

Tensorflow basic RNN example with 'variable length' sequences

答案 1 :(得分:15)

您可以使用dynamic_rnn代替并通过将数组传递给sequence_length参数来指定每个序列的长度。 示例如下:

def length(sequence):
    used = tf.sign(tf.reduce_max(tf.abs(sequence), reduction_indices=2))
    length = tf.reduce_sum(used, reduction_indices=1)
    length = tf.cast(length, tf.int32)
    return length

from tensorflow.nn.rnn_cell import GRUCell

max_length = 100
frame_size = 64
num_hidden = 200

sequence = tf.placeholder(tf.float32, [None, max_length, frame_size])
output, state = tf.nn.dynamic_rnn(
    GRUCell(num_hidden),
    sequence,
    dtype=tf.float32,
    sequence_length=length(sequence),
)

代码取自关于该主题的perfect article,请同时检查。

更新:您可以找到dynamic_rnnrnn上的另一个great post

答案 2 :(得分:4)

您可以使用

中描述的存储和填充的想法

Sequence-to-Sequence Models

创建RNN网络的rnn函数也接受参数sequence_length。

例如,您可以创建相同大小的数据桶,用必要数量的零填充它们,或者代表零字的placeholdres,然后将它们与seq_length = len(zero_words)一起提供。

seq_length = tf.placeholder(tf.int32)
outputs, states = rnn.rnn(cell, inputs,initial_state=initial_state,sequence_length=seq_length)

sess = tf.Session()
feed = {
seq_lenght: 20,
#other feeds
       }
sess.run(outputs, feed_dict=feed)

这里,最重要的是,如果你想利用一个句子获得的状态作为下一个句子的状态,当你提供sequence_length时,(假设20和填充后的句子是50) 。你想要在第20步获得的状态。为此,做

tf.pack(states)

之后的电话

for i in range(len(sentences)):
state_mat   = session.run([states],{
            m.input_data: x,m.targets: y,m.initial_state: state,     m.early_stop:early_stop })
state = state_mat[early_stop-1,:,:]

答案 3 :(得分:4)

您可以限制输入序列的最大长度,将较短的长度填充到该长度,记录每个序列的长度并使用tf.nn.dynamic_rnn。它像往常一样处理输入序列,但在序列的最后一个元素之后,由seq_length表示,它只复制单元状态,对于输出,它输出零 - 张量。

答案 4 :(得分:1)

很抱歉,我发布了一个死者问题,但我刚刚提交了PR,以寻求更好的解决方案。 dynamic_rnn非常灵活,但速度却很慢。如果它是您唯一的选择,它将起作用,但是CuDNN更快。此PR为CuDNNLSTM添加了对可变长度的支持,因此希望您能够尽快使用它。

您需要按降序对序列进行排序。然后,您可以pack_sequence,运行RNN,然后运行unpack_sequence

https://github.com/tensorflow/tensorflow/pull/22308