我正在尝试将损失函数稍微扭曲一下,如下所示。
Ants, Cockroach, Horse, Pig
[1, 0, 0, 0]
[0, 1, 0, 0]
[0, 0, 0, 1]
[0, 0, 0, 1]
当然,它会在如下的张量流代码中使用:
tf.nn.softmax_cross_entropy_with_logits(labels=self.y, logits=self.logits)
我一直在思考,因为蚂蚁和蟑螂是昆虫,而马和猪是哺乳动物,所以我想在此添加一些要点,
Ants: [1, 0.5, 0, 0]
Cockroach: [0.5, 1, 0, 0]
Horse: [0, 0, 1, 0.5]
Pig: [0, 0, 0.5, 1]
我认为这会在损失函数的反向传播中增加其他标签的相对性(或关系)。但是我不确定
tf.nn.softmax_cross_entropy_with_logits
将使用我在一个热编码(不再是一个热编码)中添加的其他信息。我尝试遵循tensorflow代码,但是我仍然不确定。
如果未按照我的预期应用,那么如何将其应用于反向传播?张量流会允许以这种方式使用吗?