将大小不等的列表转换为LSTM输入张量

时间:2020-11-09 17:13:05

标签: python pytorch lstm

因此,我有一个 1366 个样本的嵌套列表,每个样本具有 2 个特征和各种序列的长度,应该将其作为输入数据LSTM。标签应该是每个序列的一对值,即[-0.76797587, 0.0713816]。本质上,数据如下所示:

X = [[[-0.11675862, -0.5416186], [-0.76797587, 0.0713816]], [[-0.5115555, 0.25823522], [0.6099151999999999, 0.21718016], [-0.0022403747, 0.6470206999999999]]]

我想做的就是将此列表转换为输入张量。据我了解,LSTM接受不同长度的序列,因此在这种情况下,第一个样本的长度为2,第二个样本的长度为3。

目前,我正尝试通过以下方式转换列表:

train_data = TensorDataset(torch.tensor(X, dtype=torch.float32), torch.tensor(Y, dtype=torch.float32))
train_dataloader = DataLoader(train_data, batch_size=batch_size, shuffle=True)

尽管这会产生以下错误ValueError: expected sequence of length 5 at dim 1 (got 3)

我猜这是因为第一个序列的长度为5,第二个序列的长度为3,不能转换?

如何将给定列表转换为张量?还是我对LSTM的训练方式有误?

感谢您的帮助!

1 个答案:

答案 0 :(得分:1)

正如您所说,序列长度可以不同。但是由于我们使用批处理,因此在每个批处理中,序列长度都必须相同。那是因为所有样品都被同时处理。因此,您要做的是通过获取批中长度最长的序列将样本填充到相同的大小,并用零填充所有其他样本,以使它们具有相同的大小。为此,您必须使用pytorch的pad功能,例如:

Permitted type QuantityImpl does not declare Quantity<T> as direct super interface

现在批次中的所有样本都应具有from torch.nn.utils.rnn import pad_sequence # the batch must be a python list containing the tensor samples sample_batch = [torch.tensor((4,2)), torch.tensor((2,2)), torch.tensor((5,2))] # pad all samples in the batch to the length of the biggest sample padded_batch = pad_sequence(sample_batch, batch_first=True) # get the new size of the samples and reshape it to (BATCH_SIZE, SEQUENCE/PAD_SIZE. INPUT_SIZE) padded_to = list(padded_batch.size())[1] padded_batch = padded_batch.reshape(len(sample_batch), padded_to, 1) 的形状,因为最大样本的序列长度为5。

如果您不知道如何使用pytorch Dataloader实现此功能,则可以创建自定义collat​​e_fn:

(5,2)

现在,您可以告诉DataLoader在将此函数返回批次之前对其应用:

def custom_collate(batch):
    batch_size = len(batch)

    sample_batch, target_batch = [], []
    for sample, target in batch:

        sample_batch.append(sample)
        target_batch.append(target)

    padded_batch = pad_sequence(sample_batch, batch_first=True)
    padded_to = list(padded_batch.size())[1]
    padded_batch = padded_batch.reshape(len(sample_batch), padded_to, 1)        

    return padded_batch, torch.cat(target_batch, dim=0).reshape(len(sample_batch)

现在,DataLoader将返回填充的批次!