成本函数将始终具有至少“一个”,“局部”最小值吗?

时间:2019-10-17 17:08:02

标签: machine-learning gradient-descent

我在研究梯度下降,发现对于一个变量,成本函数总是凸的。现在,这个成本函数是否总是天生具有至少一个最小值?发生这种情况是,如果域是有界的且封闭的,则成本函数(如果为凸)将具有一个最小值。如何从数据集的角度看待这一点,并确保将自己收敛到一个最小值。我想对nd-space(n个功能/变量)进行一些说明。

我希望一般的成本函数(n个变量)具有多个局部最小值,并且对于n = 1,最小值为1。

0 个答案:

没有答案