标签: gpu lightning pytorch-lightning
我正在使用一个足够小的架构和一个足够小的数据集,它们可以很好地适应 GPU,而无需批量工作。
在使用 pytorch Lightning Trainer 时,如何避免我的整个数据集在每个时期都从 CPU 移动到 GPU?可以吗?