Crossentroy Loss与Accurary

时间:2017-02-16 10:40:44

标签: machine-learning tensorflow conv-neural-network cross-entropy

我在图像分类任务上训练一些CNN。 在一个简单的版本上,这工作得很好,但是当我使图像变得更加困难时,我现在遇到了这个现象(我让它训练过夜):

训练时,训练的交叉熵损失下降。此外,在我的测试数据集中,交叉熵损失下降。我正在进一步测量它的准确性,其表现不同。在开始它上升,只是再次下降,然后它在0.1和0.3之间摇摆不定。 我期待的是交叉熵损失和准确性有些相关 - 因为它们都是在相同的测量数据集上测量的。

有人可以向我解释一下吗?或者我的代码中有错误吗?

非常感谢

1 个答案:

答案 0 :(得分:0)

交叉熵并不总是与误差度量直接相关。通常它与错误率的相关性足够好。另一个典型的选择是最小化贝叶斯风险。对于您的模型,贝叶斯风险仅仅是对误差的期望(相反精度)。这是一个连续的损失,应该与您的错误率更好地相关联。此外,测量训练误差通常是一个很好的跟踪指标。