对于几乎相同的准确性,我会得到不同的验证损失

时间:2020-08-11 15:42:05

标签: keras deep-learning

我制作了两个不同的卷积神经网络用于多类分类。然后,我在keras中使用了validate_generator函数测试了这两个网络的性能。两种模型都给我可比的精度。一个给我55.9%,另一个给我54.8%。但是,给我55.9%的模型的验证损失为5.37,其他为1.24。

  1. 当精确度达到极限时,这些测试损失如何如此不同 类似。如果有什么我希望模型的损失 精度要低55.9%,但不是。

  2. 是否不会丢失网络正在犯的错误总数?

有见识。

2 个答案:

答案 0 :(得分:2)

不是会丢失网络所造成的错误总数吗?

嗯,不是真的。 损失函数成本函数是一种将事件或一个或多个变量的值映射到实数上的函数,该实数直观地表示与事件相关的某些“成本”。

例如,在回归任务中,损失函数可以是均方误差。在分类中-二进制或分类交叉熵。这些损失函数可衡量您的模型对数据的理解如何接近于现实。


为什么损失和准确性都很高?

高损失并不意味着您对模型一无所知。在基本情况下,您可以考虑一下,损失越小,选择模型的信心就越大。

因此损失较高的模型并不确定其答案。

您还可以阅读有关discussion的高损耗和准确性

答案 1 :(得分:0)

即使精度相似,但在比较不同模型时,损耗值也不相关。

准确性是指正确分类的样本在样本总数中所占的比例。

关于损失值,来自keras documentation

返回值

对于标量,测试的损失值(如果模型没有价值函数)或>标量列表(如果模型计算其他价值函数)。

如果这对您的情况没有帮助(我没有办法重现此问题),请检查有关kernel的以下已知问题,关于valuate_generator函数: evaluate_generator