Tensorflow修改的onehot编码

时间:2018-07-12 05:14:46

标签: tensorflow labels relation one-hot-encoding

我正在尝试将损失函数稍微扭曲一下,如下所示。

Ants, Cockroach, Horse, Pig
[1, 0, 0, 0]
[0, 1, 0, 0]
[0, 0, 0, 1]
[0, 0, 0, 1]

当然,它会在如下的张量流代码中使用:

tf.nn.softmax_cross_entropy_with_logits(labels=self.y, logits=self.logits)

我一直在思考,因为蚂蚁和蟑螂是昆虫,而马和猪是哺乳动物,所以我想在此添加一些要点,

Ants: [1, 0.5, 0, 0]
Cockroach: [0.5, 1, 0, 0]
Horse: [0, 0, 1, 0.5]
Pig: [0, 0, 0.5, 1]

我认为这会在损失函数的反向传播中增加其他标签的相对性(或关系)。但是我不确定

tf.nn.softmax_cross_entropy_with_logits

将使用我在一个热编码(不再是一个热编码)中添加的其他信息。我尝试遵循tensorflow代码,但是我仍然不确定。

如果未按照我的预期应用,那么如何将其应用于反向传播?张量流会允许以这种方式使用吗?

0 个答案:

没有答案