从打包序列中获取每个序列的最后一项

时间:2019-03-28 13:42:08

标签: indexing deep-learning pytorch tensor zero-padding

我正在尝试通过GRU放入打包和填充的序列,并检索每个序列的最后一项的输出。当然,我并不是指-1项,而是最后一个未填充的实际项。我们预先知道序列的长度,因此应该像为每个序列提取length-1项一样容易。

我尝试了以下

import torch
from torch.nn.utils.rnn import pack_padded_sequence, pad_packed_sequence

# Data
input = torch.Tensor([[[0., 0., 0.],
                       [1., 0., 1.],
                       [1., 1., 0.],
                       [1., 0., 1.],
                       [1., 0., 1.],
                       [1., 1., 0.]],

                      [[1., 1., 0.],
                       [0., 1., 0.],
                       [0., 0., 0.],
                       [0., 1., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.]],

                      [[0., 0., 0.],
                       [1., 0., 0.],
                       [1., 1., 1.],
                       [0., 0., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.]],

                      [[1., 1., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.]]])

lengths = [6, 4, 3, 1]
p = pack_padded_sequence(input, lengths, batch_first=True)

# Forward
gru = torch.nn.GRU(3, 12, batch_first=True)
packed_output, gru_h = gru(p)

# Unpack
output, input_sizes = pad_packed_sequence(packed_output, batch_first=True)

last_seq_idxs = torch.LongTensor([x-1 for x in input_sizes])

last_seq_items = torch.index_select(output, 1, last_seq_idxs) 

print(last_seq_items.size())
# torch.Size([4, 4, 12])

但是形状不是我期望的。我曾期望得到4x12,即last item of each individual sequence x hidden

我可以遍历整个过程,并构建一个包含我需要的项目的新张量,但是我希望有一种利用一些智能数学的内置方法。我担心手动循环和构建会导致性能很差。

2 个答案:

答案 0 :(得分:1)

您可以只执行last_seq_idxs而不是最后两个操作last_seq_itemslast_seq_items=output[torch.arange(4), input_sizes-1]

我认为index_select做的不正确。它将根据您传递的索引选择整个批次,因此您的输出大小为[4,4,12]。

答案 1 :(得分:1)

乌曼·古普塔(Umang Gupta)的答案更为冗长:

# ...
output, input_sizes = pad_packed_sequence(packed_output, batch_first=True)
# One per sequence, with its last actual node extracted, and unsqueezed
last_seq = [output[e, i-1, :].unsqueeze(0) for e, i in enumerate(input_sizes)]
# Merge them together all sequences together to get batch
last_seq = torch.cat(last_seq, dim=0)