标签: matlab neural-network gradient-descent
我目前正在训练数百种不同的神经网络排列。使用Levenberg-Marquardt反向传播会产生相对较快的结果,但是出于学术原因,我现在更喜欢使用梯度下降。不幸的是,梯度下降非常缓慢,我只是停下来,因为训练所有网络需要很长时间。
有没有办法加快梯度下降过程,最好不涉及并行计算技术?