标签: gpu pytorch batchsize
我们知道,批量大小会影响培训的准确性。 (较小的批量,更高的acc。)。但是使用较小的批次大小也意味着更长的培训时间。 假设GPU中有更大的内存(例如Nvidia RTX 2080,GPU上有8GB内存)。有没有一种方法可以将较大的数据加载到GPU中并使用较小的数据集进行训练,以最大程度地减少CPU和GPU之间的数据访问量,并通过小型训练批量获得更好的准确性?