Kullback Liebler Divergence已经在TensorFlow中实现了吗?

时间:2016-04-12 13:17:41

标签: machine-learning tensorflow data-loss

我正在使用tensorflow并使用Nueral Networks来解决多标签分类问题。我使用Softmax交叉熵作为我的损失函数:

#Softmax loss
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y)) 

现在,我认为我应该使用KL分歧损失功能。但是,我没有在tensorflow中找到它可以帮助我使用KL发散损失函数而不是Softmax损失吗?

1 个答案:

答案 0 :(得分:0)

你走了:

tf.contrib.distributions.kl(distribution_1, distribution_2)