不同的成本函数有利弊

时间:2020-01-21 21:42:16

标签: machine-learning

我见过book和Andrew Ng的神经网络成本函数,并且我注意到Andrew Ng的成本函数与神经网络书籍不同。 Ng的用途 J(Θ)= −(1 / m)∑∑ [y * log((hΘ(x)))+(1-y)* log(1-(hΘ(x)))] 这本书使用均方误差

每个错误公式的优缺点是什么?

1 个答案:

答案 0 :(得分:1)

第一个成本函数(称为交叉熵损失或对数损失)用于测量输出介于0和1之间的分类模型的性能。与实际标签的偏差越大,交叉熵就越高失利。例如,当实际值为1时预测0.6的概率是不好的结果,并且会导致高损失值。当交叉熵损失为0时,模型是完美的。

MSE衡量模型预测值与实际标签值不同的平均值。可以将其视为模型在训练集上的表现,因此,当模型在训练集上的表现不佳时,成本会更高。也称为L2损失。在训练模型时,任务是最小化估计目标值与实际目标值之间的平方差。