在线梯度下降收敛的直觉

时间:2019-12-21 14:24:36

标签: gradient-descent convex-optimization online-algorithm

此问题是指在线梯度下降,如Zinkevich 2003年的《在线凸规划和广义无穷小梯度上升》第2和2.1节所述。

在在线设置中,每次迭代都会显示出可能不同的凸损耗函数。在显示新的成本函数之前,学习者必须在每次迭代中对凸集中的某个点做出决定。目的是最大程度地减少后悔,后悔是指学习者所付出的成本与事后预测中最佳固定点之差。

在适当的学习率下,一个学习者贪婪地计算出最后揭示的成本函数的梯度,并向其负方向迈出一步,然后将结果投影回凸集,从而获得遗憾,随着迭代次数增加。

上述事实的证明是可以理解的,但我无法理解其背后的直觉。迭代t的成本函数以哪种方式传达有关迭代t + 1的成本函数的任何有意义的信息?

0 个答案:

没有答案