tf.nn.softmax_cross_entropy_with_logits如何计算张量流中的softmax交叉熵?

时间:2017-05-22 22:32:26

标签: tensorflow

tf.nn.softmax_cross_entropy_with_logits,文档说它计算logits和label之间的softmax交叉熵是什么意思?是不是应用交叉熵损失函数公式呢?为什么文档说它计算sofmax交叉熵?

1 个答案:

答案 0 :(得分:0)

同样来自Docs:

  

测量离散分类任务中的概率误差,其中类是互斥的(每个条目恰好在一个类中)。

router.get('/auth/google/callback', (req, res) => { google.getToken(req.query.code).then( () => { google.getUser().then(user => { console.log(user); //undefined - response is NOT defined here }); //End getUser().then(..) }); //End getToken.then(..) }); //End router.get(..) 分类使用 Softmax在离散类之间训练和分类数据。还有其他激活函数,如cross-entropy loss function(整流线性单位)或ReLU,用于线性分类和NN;在这种情况下使用Sigmoid

激活函数是决策函数(实际将数据分类为类别的函数),交叉熵是用于在训练期间计算误差的函数(您可以使用其他方法来计算误差成本,如均方)。然而,交叉熵似乎是目前最好的计算方法。

正如有人指出的那样,Softmax是分类中常用的术语,用于方便表示法。

修改

关于 logits ,这意味着它可以使用未缩放的输入数据。换句话说,输入数据可以不是概率值(即,值可以是> 1)。请查看this question以了解有关softmax cross-entropy及其组件的更多信息。