标签: python tensorflow stochastic-gradient
如标题中所示,如果我调用sess.run(op)进行一次迭代,op = tf.train.GradientDescentOptimizer.minimize仅更新一次网络权重吗?如果输入的batch_size不等于1,是否仍由每个批次中的所有样本更新一次?