有没有一种方法可以在Pytorch中使用连续的示例进行批处理

时间:2019-04-07 20:14:54

标签: python pytorch

我有一个包含10,000多个示例的数据集,并使用Dataloader创建了大小为50的批次。我试图找到一种方法,使批次1从示例1开始并在示例50结束,然后使批次2从示例开始2,并在示例51处结束,依此类推。

这是我使用DataLoader的地方的一个片段:

train_loader = torch.utils.data.DataLoader(train, batch_size=batch_size, drop_last=True, shuffle=False)

    for epoch in range(num_epochs): 
        totalEpochs += 1

        for X, y in train_loader:

            train = X.view(-1, 1, X.shape[1]).float()

0 个答案:

没有答案