如何在Keras的FCN(U-Net)上使用加权分类交叉熵?

时间:2017-05-14 19:31:15

标签: keras loss cross-entropy

我已经建立了一个用于图像分割的Keras模型(U-Net)。然而,在我的样本中,一些错误分类(区域)并不重要,而其他错误分类是至关重要的,所以我想为它们分配更高权重的损失函数。为了使事情进一步复杂化,我希望一些错误分类(1级而不是2级)具有非常高的惩罚,而反向(2级而不是1)不应该受到那么多的惩罚。

我看到它的方式,我需要使用加权分类交叉熵的和(所有像素),但我能找到的最好的是this

def w_categorical_crossentropy(y_true, y_pred, weights):
    nb_cl = len(weights)
    final_mask = K.zeros_like(y_pred[:, 0])
    y_pred_max = K.max(y_pred, axis=1)
    y_pred_max = K.reshape(y_pred_max, (K.shape(y_pred)[0], 1))
    y_pred_max_mat = K.cast(K.equal(y_pred, y_pred_max), K.floatx())
    for c_p, c_t in product(range(nb_cl), range(nb_cl)):
        final_mask += (weights[c_t, c_p] * y_pred_max_mat[:, c_p] * y_true[:, c_t])
    return K.categorical_crossentropy(y_pred, y_true) * final_mask

然而,这段代码仅适用于单一预测,而且我对Keras内部工作的知识缺乏(并且其数学方面并没有好多少)。任何人都知道如何适应它,甚至更好,是否有适合我的情况的现成的损失功能?

我很感激一些指示。

编辑:我的问题类似于How to do point-wise categorical crossentropy loss in Keras?,但我想使用 加权 分类交叉熵。

1 个答案:

答案 0 :(得分:1)

您可以使用权重图(如U-Net paper中所建议)。在这些权重图中,您可以对重量更大或更小的区域进行加权。这是一些伪代码:

loss = compute_categorical_crossentropy()
weighted_loss = loss * weight_map # using element-wise multiplication