softmax和log-softmax有什么区别?

时间:2018-03-12 13:34:38

标签: machine-learning deep-learning pytorch softmax

这个pytorch帖子中描述的这两个函数之间的区别:What is the difference between log_softmax and softmax?  是:exp(x_i) / exp(x).sum() 并记录softmax是:log(exp(x_i) / exp(x).sum())

但是对于下面的Pytorch代码,为什么我得到不同的输出:

>>> it = autograd.Variable(torch.FloatTensor([0.6229,0.3771]))
>>> op = autograd.Variable(torch.LongTensor([0]))
>>> m  = nn.Softmax()
>>> log = nn.LogSoftmax()
>>> m(it)
Variable containing:
`0.5611  0.4389`
[torch.FloatTensor of size 1x2]
>>>log(it)
Variable containing:
-0.5778 -0.8236
[torch.FloatTensor of size 1x2]

但是,值log(0.5611)是-0.25095973129,log(0.4389)是-0.35763441915

为什么会出现这种差异?

2 个答案:

答案 0 :(得分:5)

默认情况下,torch.log提供输入的自然对数,因此pytorch的输出是正确的:

LN([0.5611,0.4389])= [ - 0.5778,-0.8236]

您的最后结果是使用对数为10的对数获得的。

答案 1 :(得分:0)

不仅是默认日志,而且总是torch.log是自然日志。 而torch.log10是以10为底的对数。