我有12个班级的多标签分类问题。我使用slim
的{{1}}来使用Tensorflow
上预训练的模型训练模型。以下是培训中每个班级的存在百分比。验证
ImageNet
问题是模型没有收敛,并且验证集上的 Training Validation
class0 44.4 25
class1 55.6 50
class2 50 25
class3 55.6 50
class4 44.4 50
class5 50 75
class6 50 75
class7 55.6 50
class8 88.9 50
class9 88.9 50
class10 50 25
class11 72.2 25
曲线(ROC
)之下很差,如:
Az
我不知道为什么它适用于某些类,而不适用于其他类。我决定深入研究细节,看看神经网络在学习什么。我知道混淆矩阵只适用于二元或多类分类。因此,为了能够绘制它,我不得不将问题转换为多类分类对。尽管使用 Az
class0 0.99
class1 0.44
class2 0.96
class3 0.9
class4 0.99
class5 0.01
class6 0.52
class7 0.65
class8 0.97
class9 0.82
class10 0.09
class11 0.5
Average 0.65
训练模型来为每个类提供预测,但对于下面的混淆矩阵中的每个单个单元,我都显示了概率的平均值(通过应用{{1}获得对图像的张量流的预测的函数,其中存在矩阵行中的类并且不存在列中的类。这适用于验证集图像。这样我认为我可以获得有关模型学习内容的更多细节。我只是将对角线元素圈起来用于显示目的。
我的解释是:
我的问题是解释。我不确定问题出在哪里,我不确定数据集中是否存在产生此类结果的偏差。我还想知道是否有一些指标可以帮助解决多标签分类问题?你可以和我分享你对这种混淆矩阵的解释吗?以及接下来要看什么/在哪里?对其他指标的一些建议会很棒。
感谢。
修改
我将问题转换为多类分类,因此对于每对类(例如0,1)来计算概率(类0,类1),表示为sigmoid
:
我对图像的工具1进行了预测,其中工具0存在且工具1不存在,我通过应用sigmoid函数将它们转换为概率,然后我显示这些概率的均值。对于sigmoid
,我也会这样做但现在使用工具0使用工具1,而工具1不存在。对于p(0,1)
,我使用工具0所在的所有图像。考虑到上图中的p(1, 0)
,N / A表示没有工具0存在且工具4不存在的图像。
以下是2个子集的图像数量:
这是在训练集上计算的混淆矩阵(以与前面描述的验证集相同的方式计算),但这次颜色代码是用于计算每个概率的图像数:
编辑: 对于数据增强,我对网络中的每个输入图像进行随机转换,旋转和缩放。此外,以下是有关这些工具的一些信息:
p(0, 0)
编辑: 以下是针对训练集提出的代码输出:
p(0,4)
对于验证集:
class 0 shape is completely different than the other objects.
class 1 resembles strongly to class 4.
class 2 shape resembles to class 1 & 4 but it's always accompanied by an object different than the others objects in the scene. As a whole, it is different than the other objects.
class 3 shape is completely different than the other objects.
class 4 resembles strongly to class 1
class 5 have common shape with classes 6 & 7 (we can say that they are all from the same category of objects)
class 6 resembles strongly to class 7
class 7 resembles strongly to class 6
class 8 shape is completely different than the other objects.
class 9 resembles strongly to class 10
class 10 resembles strongly to class 9
class 11 shape is completely different than the other objects.
注释: 我认为它不仅与分布之间的差异有关,因为如果模型能够很好地概括第10类(意味着对象在训练过程中被正确识别,如0级),验证集的准确性将是好的足够。我的意思是问题在于训练集本身以及它的构建方式比两个分布之间的差异更大。它可以是:类或对象的存在频率强烈相似(如类10中非常类似于类9的情况)或数据集内的偏差或薄对象(表示输入中可能有1%或2%的像素)图像类2)。我并不是说这个问题就是其中之一,但我只是想指出,我认为这不仅仅是两个发行版之间的区别。
答案 0 :(得分:3)
我认为首先要认识到的一件事是,神经网络的输出可能很难校准。我的意思是,它给不同实例的输出可能导致良好的排名(标签L的图像往往比没有标签L的图像具有更高的分数),但这些分数不能总是可靠地解释为概率(它可能会给没有标签的实例提供非常高的分数,例如0.9
,并且只给予0.99
更高的分数给带标签的实例。我想这是否可能发生,取决于你选择的损失函数等。
有关详细信息,请参阅示例:https://arxiv.org/abs/1706.04599
0级: AUC(曲线下面积)= 0.99。这是一个非常好的分数。混淆矩阵中的第0列看起来也很好,所以这里没有错。
第1类: AUC = 0.44。这是非常可怕的,低于0.5,如果我没有弄错,那就意味着你更好地故意做你的网络为这个标签预测的相反。
查看混淆矩阵中的第1列,它在各处都有相同的分数。对我来说,这表明网络没有能够学到很多关于这门课程的知识,而且几乎只是猜测了#34;根据训练集中包含此标签的图像百分比(55.6%)。由于这个百分比在验证集中下降到50%,这个策略确实意味着它比随机稍差。尽管如此,第1行仍然具有此列中所有行的最大数量,因此它似乎至少学到了一点点,但并不多。
第2类: AUC = 0.96。这是非常好的。
您对此课程的解释是,根据整个专栏的浅色阴影,它总是被预测为不存在。我不认为这种解释是正确的。看看它如何在对角线上得分> 0,在列中的其他地方只得0。它在该行中的分数可能相对较低,但它可以轻松地与同一列中的其他行分开。您可能只需设置选择该标签是否存在相对较低的阈值。我怀疑这是由于上面提到的校准事项。
这也是AUC实际上非常好的原因;可以选择一个阈值,使得分数高于阈值的大多数实例正确地具有标签,并且其下面的大多数实例都不正确。该阈值可能不是0.5,这是您假设良好校准时可能期望的阈值。绘制此特定标签的ROC曲线可帮助您准确确定阈值的位置。
3级: AUC = 0.9,相当不错。
你把它解释为总是被检测到存在,并且混淆矩阵确实在列中有很多高数字,但是AUC是好的并且对角线上的单元确实具有足够高的值,它可能是很容易与其他人分开。我怀疑这是类似于第2类的情况(只是翻转,到处都是高预测,因此正确决策需要很高的阈值)。
如果您希望能够确定一个精心挑选的阈值是否确实可以正确地分割大多数"肯定" (来自3级的实例)来自大多数"负面" (没有第3类的实例),您希望根据标签3的预测分数对所有实例进行排序,然后浏览整个列表,并在每对连续条目之间计算出如果您获得的验证集的准确性决定将你的门槛放在那里,并选择最佳门槛。
第4类:与第0类相同。
第5类: AUC = 0.01,显然非常糟糕。同意你对混淆矩阵的解释。要确定为什么它在这里表现如此糟糕,这很难说清楚。也许这是一个很难识别的对象?可能还有一些过度拟合(训练数据中的0个假阳性从第二个矩阵中的列判断,尽管还有其他类发生这种情况)。
标签5图像的比例从训练到验证数据的增加可能也没有帮助。这意味着,在培训期间,网络在此标签上的表现不如验证期间那么重要。
第6类: AUC = 0.52,仅比随机稍好。
根据第一个矩阵中的第6列来判断,这实际上可能与第2类相似。如果我们也考虑AUC,它看起来也没有学会对实例进行排序。与5级相似,也不差。此外,培训和验证的分布也大不相同。
第7类: AUC = 0.65,相当平均。例如,显然不如第2类好,但也没有你从矩阵中解释的那么糟糕。
第8课: AUC = 0.97,非常好,类似于3级。
第9类: AUC = 0.82,不太好但仍然很好。矩阵中的列有很多暗单元格,数字非常接近,我认为AUC非常好。它几乎存在于训练数据的每个图像中,因此预测它经常出现并不奇怪。也许这些非常暗的细胞中的一些只基于绝对数量较少的图像?这很有意思。
第10类: AUC = 0.09,非常糟糕。对角线上的0很关注(你的数据标记是否正确?)。根据第一个矩阵的第10行,它似乎经常对第3和第9类感到困惑(棉花和primary_incision_knives看起来很像secondary_incision_knives吗?)。也许还有一些过度拟合训练数据。
第11类: AUC = 0.5,不比随机好。性能不佳(以及矩阵中得分过高)可能是因为这个标签存在于大多数训练图像中,但只有少数验证图像。
为了更深入地了解您的数据,我首先绘制每个类共同发生频率的热图(一个用于培训,一个用于验证数据)。单元格(i,j)将根据包含标签i和j的图像的比率着色。这将是一个对称图,在对角线单元格上根据您问题中的第一个数字列表着色。比较两个热图,看看它们的不同之处,看看它是否有助于解释您的模型的性能。
此外,了解(对于两个数据集)每个图像平均有多少不同的标签,以及对于每个单独的标签,平均分享图像的其他标签数量可能很有用。例如,我怀疑带有标签10的图像在训练数据中具有相对较少的其他标签。如果标签10识别出其他东西,则这可以阻止网络预测标签10,并且如果标签10突然在验证数据中更频繁地与其他对象共享图像,则可能导致性能不佳。由于伪代码可能比单词更容易获得重点,因此打印如下内容可能会很有趣:
# Do all of the following once for training data, AND once for validation data
tot_num_labels = 0
for image in images:
tot_num_labels += len(image.get_all_labels())
avg_labels_per_image = tot_num_labels / float(num_images)
print("Avg. num labels per image = ", avg_labels_per_image)
for label in range(num_labels):
tot_shared_labels = 0
for image in images_with_label(label):
tot_shared_labels += (len(image.get_all_labels()) - 1)
avg_shared_labels = tot_shared_labels / float(len(images_with_label(label)))
print("On average, images with label ", label, " also have ", avg_shared_labels, " other labels.")
对于单个数据集,这并不能提供很多有用的信息,但是如果你为训练集和验证集做了这些数据,那么如果数字非常不同,你可以说它们的分布是完全不同的
最后,我有点担心你的第一个矩阵中的某些列如何完全出现在许多不同行上的相同平均预测。我不太确定是什么原因引起的,但这可能对调查很有用。
如果您还没有,我建议您查看数据扩充以获取您的培训数据。由于您正在使用图片,因此您可以尝试将现有图片的旋转版本添加到数据中。
对于具体的多标签案例,其目标是检测不同类型的对象,尝试简单地将一堆不同的图像(例如,两个或四个图像)连接在一起也可能是有趣的。然后,您可以将它们缩小到原始图像大小,并且标签指定原始标签集的并集。你在合并图像的边缘会得到有趣的不连续性,我不知道这是否有害。也许它不适用于你的多物体检测案例,在我看来值得一试。