在pytorch中使用DataLoader时关于批处理大小的混淆

时间:2020-05-26 00:11:29

标签: neural-network pytorch batchsize

我是pytorch的新手。 我正在训练用于MNIST数据集分类的ANN。

train_loader = DataLoader(train_data,batch_size=200,shuffle=True)

我很困惑。该数据集包含60,000张图像,我将批次大小设置为6000,并且我的模型有30个历元。 每个纪元只能看到6000张图像,还是每个纪元只能看到10批6000张图像?

1 个答案:

答案 0 :(得分:1)

每次调用数据集迭代器都会返回一批batch_size大小的图像。因此,您将有10个批次,直到用尽所有60000张图像为止。