如何将更大的数据集加载(pytorch)到GPU中以及进行迷你批处理训练?

时间:2020-02-21 01:37:52

标签: gpu pytorch batchsize

我们知道,批量大小会影响培训的准确性。 (较小的批量,更高的acc。)。但是使用较小的批次大小也意味着更长的培训时间。 假设GPU中有更大的内存(例如Nvidia RTX 2080,GPU上有8GB内存)。有没有一种方法可以将较大的数据加载到GPU中并使用较小的数据集进行训练,以最大程度地减少CPU和GPU之间的数据访问量,并通过小型训练批量获得更好的准确性?

0 个答案:

没有答案
相关问题