梯度下降(GD)和随机梯度下降(SGD)的迭代时间

时间:2018-08-22 04:12:38

标签: machine-learning iteration complexity-theory gradient-descent

我很好奇paper

中提到的梯度下降(GD)和随机梯度下降(SGD)之间的计算复杂性

我找到了一个更简单的版本lecture notes,该版本表示如果我们要达到$$ e $$的精度,则

  • GD中的迭代数将为O(log(1 / e))
  • SGD中的迭代次数将为O(1 / e)

如何获得这两个迭代数?谢谢!

0 个答案:

没有答案