为什么pytorch F.mse_loss的行为与w.r.t不同张量和参数?

时间:2018-08-09 05:42:45

标签: pytorch

下面是我的代码:

import torch as pt
from torch.nn import functional as F

a = pt.Tensor([[0, 1], [2, 3]])
b = pt.Tensor([[1, 0], [5, 4]])
print(F.mse_loss(a, b), F.mse_loss(a, b, reduction='elementwise_mean'))

a = pt.nn.Parameter(a)
b = pt.nn.Parameter(b)
print(F.mse_loss(a, b), F.mse_loss(a, b, reduction='elementwise_mean'))

输出为:

tensor(3.) tensor(3.)
tensor(12., grad_fn=<SumBackward0>) tensor(12., grad_fn=<SumBackward0>)

我想知道他们为什么给出两个不同的结果?

环境设置:
python 3.6
pytorch 0.4.1

1 个答案:

答案 0 :(得分:1)

根据pytorch forum,这是一个错误。