标签: python tensorflow pytorch mxnet batch-normalization
对于普通BatchNorm,每个GPU的最小批处理大小为2。
BatchNorm
我想知道我是否使用SyncBatchNorm,是否可以对具有多个GPU的每个GPU使用batch_size=1?
SyncBatchNorm
batch_size=1
即total_batch_size大于1,但batch_size_per_gpu为1。
total_batch_size
batch_size_per_gpu
对于任何深度学习框架,pytorch,tensorflow,mxnet等的回答,我将不胜感激
答案 0 :(得分:1)
对于PyTorch,使用batch_size_per_gpu=1和多个GPU即可。
batch_size_per_gpu=1