阅读https://stanford.edu/~shervine/blog/pytorch-how-to-generate-data-parallel和https://discuss.pytorch.org/t/how-does-enumerate-trainloader-0-work/14410是为了了解训练纪元在PyTorch中的表现。
进行内外循环:
for epoch in range(num_epochs):
for i1,i2 in enumerate(training_loader):
这是正确的解释吗?
对于外部循环/纪元的每次调用,整个训练集(在上面的示例中training_loader
)每批迭代一次。这意味着该模型在每个训练周期中不会处理一个实例。每个训练周期(for epoch in range(num_epochs):
都以块/批次处理整个训练集,在创建training_loader
答案 0 :(得分:0)
torch.utils.data.DataLoader
返回对数据集进行迭代的可迭代对象。
因此,以下内容-
training_loader = torch.utils.data.DataLoader(*args)
for i1,i2 in enumerate(training_loader):
#process
在数据集中完全批量运行一个。