如何在 Pytorch 中测试自定义数据集?

时间:2021-04-27 22:45:11

标签: pytorch torch

我一直在关注 Pytorch 中使用来自 Pytorch 的数据集的教程,这些教程允许您启用是否要使用数据进行训练……但现在我使用的是 .csv 和自定义数据集。

class MyDataset(Dataset):
    def __init__(self, root, n_inp):
        self.df = pd.read_csv(root)
        self.data = self.df.to_numpy()
        self.x , self.y = (torch.from_numpy(self.data[:,:n_inp]),
                           torch.from_numpy(self.data[:,n_inp:]))
    def __getitem__(self, idx):
        return self.x[idx, :], self.y[idx,:]
    def __len__(self):
        return len(self.data)

如何告诉 Pytorch 不要训练我的 test_dataset,以便我可以将其用作模型准确度的参考?

train_dataset = MyDataset("heart.csv", input_size)
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle =True)
test_dataset = MyDataset("heart.csv", input_size)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle =True)

2 个答案:

答案 0 :(得分:1)

在 pytorch 中,自定义数据集继承类 Dataset。它主要包含两个方法,__len__() 是指定要迭代的数据集对象的长度,__getitem__() 是一次返回一批数据。

初始化数据加载器对象后(代码中指定的 train_loadertest_loader),您需要编写一个训练循环和一个测试循环。

def train(model, optimizer, loss_fn, dataloader):
    model.train()
    for i, (input, gt) in enumerate(dataloader):
        if params.use_gpu: #(If training using GPU)
            input, gt = input.cuda(non_blocking = True), gt.cuda(non_blocking = True)
        predicted = model(input)
        loss = loss_fn(predicted, gt)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

并且您的测试循环应该是:

def test(model,loss_fn, dataloader):
    model.eval()
    for i, (input, gt) in enumerate(dataloader):
        if params.use_gpu: #(If training using GPU)
            input, gt = input.cuda(non_blocking = True), gt.cuda(non_blocking = True)
        predicted = model(input)
        loss     = loss_fn(predicted, gt)

此外,您可以使用指标字典来记录您的预测、损失、时期等。训练循环和测试循环之间的主要区别在于我们在推理阶段排除了反向传播 (zero_grad(), backward(), step())。

最后,

for epoch in range(1, epochs + 1):
    train(model, optimizer, loss_fn, train_loader)
    test(model, loss_fn, test_loader)

答案 1 :(得分:1)

在 pytorch 中进行测试时需要注意以下几点:

  1. 将您的模型置于评估模式,这样 dropout 和批量归一化之类的事情就不会处于训练模式:model.eval()
  2. 在您的测试代码周围放置一个包装器以避免计算梯度(节省内存和时间):with torch.no_grad():
  3. 仅根据您的训练集对您的数据进行规范化或标准化。这对于最小/最大归一化或 z 分数标准化很重要,以便模型准确反映测试性能。

除此之外,您编写的内容在我看来还不错,因为您没有对数据应用任何变换(例如,图像翻转或高斯噪声注入)。要显示测试模式下的代码应该是什么样子,请参见下文:

for e in range(num_epochs):
    for B, (dat, label) in enumerate(train_loader):
         #transforms here
         opt.zero_grad()
         out = model(dat.to(device))
         loss = criterion(out)
         loss.backward()
         opt.step()
    with torch.no_grad():
         model.eval()
         global_corr = 0
         for B, (dat,label) in enumerate(test_loader):
             out = model(dat.to(device))
             # get batch eval metrics here!