了解PyTorch培训批次

时间:2019-03-15 18:18:40

标签: pytorch

阅读https://stanford.edu/~shervine/blog/pytorch-how-to-generate-data-parallelhttps://discuss.pytorch.org/t/how-does-enumerate-trainloader-0-work/14410是为了了解训练纪元在PyTorch中的表现。

进行内外循环:

for epoch in range(num_epochs):
    for i1,i2 in enumerate(training_loader):

这是正确的解释吗?

对于外部循环/纪元的每次调用,整个训练集(在上面的示例中training_loader)每批迭代一次。这意味着该模型在每个训练周期中不会处理一个实例。每个训练周期(for epoch in range(num_epochs):都以块/批次处理整个训练集,在创建training_loader

时确定批次大小

1 个答案:

答案 0 :(得分:0)

torch.utils.data.DataLoader返回对数据集进行迭代的可迭代对象。

因此,以下内容-

training_loader = torch.utils.data.DataLoader(*args)
for i1,i2 in enumerate(training_loader):

  #process

在数据集中完全批量运行一个。