Deeplab的自定义损失

时间:2018-12-11 22:40:00

标签: python tensorflow loss-function cross-entropy deeplab

我想为Deeplab v3添加自定义损失,该损失不仅适用于一个热门编码标签,而且适用于显着性预测。因此,您将看到的不是Deeplab损失实现:

label = tf.to_int32(label > 0.2)
one_hot_labels = slim.one_hot_encoding(label, num_classes, on_value=1.0, off_value=0.0)
tf.losses.softmax_cross_entropy(one_hot_labels, logits)

我使用了此实现:

softmax = tf.log(tf.nn.softmax(logits))
cross_entropy = -tf.reduce_sum(label*softmax, reduction_indices=[1])
tf.losses.add_loss(tf.reduce_mean(cross_entropy))

训练了大约5个图片的1000个历元,并得到了以下结果:

此外,尝试了几种学习率,但不会改变自定义丢失的结果。

0 个答案:

没有答案