tf.nn.softmax_cross_entropy_with_logits,文档说它计算logits和label之间的softmax交叉熵是什么意思?是不是应用交叉熵损失函数公式呢?为什么文档说它计算sofmax交叉熵?
答案 0 :(得分:0)
同样来自Docs:
测量离散分类任务中的概率误差,其中类是互斥的(每个条目恰好在一个类中)。
router.get('/auth/google/callback', (req, res) => {
google.getToken(req.query.code).then( () => {
google.getUser().then(user => {
console.log(user); //undefined - response is NOT defined here
}); //End getUser().then(..)
}); //End getToken.then(..)
}); //End router.get(..)
分类使用 Softmax
在离散类之间训练和分类数据。还有其他激活函数,如cross-entropy loss function
(整流线性单位)或ReLU
,用于线性分类和NN;在这种情况下使用Sigmoid
。
激活函数是决策函数(实际将数据分类为类别的函数),交叉熵是用于在训练期间计算误差的函数(您可以使用其他方法来计算误差成本,如均方)。然而,交叉熵似乎是目前最好的计算方法。
正如有人指出的那样,Softmax
是分类中常用的术语,用于方便表示法。
修改强>
关于 logits ,这意味着它可以使用未缩放的输入数据。换句话说,输入数据可以不是概率值(即,值可以是> 1)。请查看this question以了解有关softmax cross-entropy
及其组件的更多信息。