Pytorch张量相等没有意义

时间:2019-01-07 08:07:15

标签: pytorch

tensor(1.0000, grad_fn=<SumBackward0>)

tensor([1.])

为什么这两个张量在pytorch中不相等?

1 个答案:

答案 0 :(得分:0)

我知道了:转换为numpy时,

assert torch.sum(state_alphas).detach().numpy() == 1, torch.sum(state_alphas).detach().numpy()
AssertionError: 0.9999994

由于某种原因,即使张量显示为1.000 ...也不完全等于1。