使用FCN进行图像分割的加权精度

时间:2017-03-21 12:31:20

标签: machine-learning deep-learning conv-neural-network image-segmentation

我已经构建了一个用于图像分割的FCN。要分割的对象仅相对于图像大小(1024x1024)非常少的像素。这导致精度非常高,即使我只训练了10张图像而不是18000张(我的完整训练集)。

我解决这个问题的方法是使用某种加权精度,这样精度实际上可以说明识别小物体的性能(现在它具有很高的准确性,因为很多像素不是对象,也没有分类任何准确性仍然很高的事情。)

我如何决定体重,任何有经验的人?

2 个答案:

答案 0 :(得分:0)

正如您所写,使用自定义权重函数可以更多地惩罚代表性不足的像素的错误分类。您可以通过计算对象像素数与图像中所有像素之间的商来获得权重,或者您可以手动尝试 - 只需确保遵循告诉您对象像素精度的指标。希望它有所帮助。

答案 1 :(得分:0)

您可以使用infogain loss layer进行“加权”损失 信息损失是常用的交叉熵损失的推广。它是使用权重矩阵H(大小为L - by - L定义的,其中L是类的数量):

L(p) = -H log(p)

其中p是类概率的向量。

您可以找到有关此损失的更多详细信息here