标签: machine-learning neural-network deep-learning gradient-descent loss-function
我正在从Andrew NG上这门深度学习课程。在第一门课程第二周的第三讲中,他提到我们也可以使用RMSE进行逻辑回归,但是它将采用非凸形式,具有很多局部最小值,因此梯度下降可能无法找到全局最小值。那么为什么将RMSE用作损失函数会使成本函数在逻辑回归中不凸,而在线性回归的情况下凸呢?