标签: neural-network batch-normalization
根据我的理解,在某个网络层之后的批归一化,将给定一个小批量的所述层的输出归一化,作为相对于小批量样本的网络输入。但是,如果我不使用小批量培训方法怎么办?如果我使用随机梯度下降训练网络怎么办,其中权重的更新针对数据集的每个样本分别进行。批处理规范化变得毫无用处,还是我的理解错误?