标签: niftynet
我正在使用模型动物园提供的“各向异性网”将其重新训练到另一个数据集上。
根据纸张和配置文件的默认批处理大小为5。但是,无法在当前计算机上使用batch_size = 5。因此,我正在使用batch_size = 1进行培训。
batch_size = 5
batch_size = 1
但是,问题是batch_size参数如何影响模型训练。更精确地说,当将批量大小从5减少到1时,是否需要增加迭代次数max_iter,因为每次迭代都会处理较少的图像补丁?
batch_size
max_iter
谢谢, 安德烈亚斯(Andreas)