在pytorch中张量分裂。断言错误

时间:2017-06-13 10:18:21

标签: division torch pytorch

这是一个pytorch初学者问题。在pytorch中,我试图用两个大小的张量进行元素划分[5,5,3]。在Numpy中使用np.divide()可以正常工作,但不知怎的,我在这里得到了一个错误。我使用PyTorch版本0.1.12 for Python 3.5。

c = [torch.DoubleTensor,大小为5x5x3]

input_patch = [大小为5x5x3的torch.FloatTensor]

input_patch是torch.autograd变量的一个切片,c是通过执行c = torch.from_numpy(self.patch_filt [:,:,:,0])。float()

做的时候:

torch.div(input_patch, c)

我收到了这个我不明白的错误。

line 317, in div
assert not torch.is_tensor(other)
AssertionError

这是否意味着变量c不应该是torch_tensor?在铸造c之后也是一个FloatTensor仍然给出了同样的错误。

谢谢!

1 个答案:

答案 0 :(得分:1)

Input_patch是torch.autograd变量的一部分,而c是通过

进行的
c = torch.from_numpy(self.patch_filt[:, :, :, 0]).float() 

无论如何,mexmex,感谢你的评论,我通过将c定义为

来解决它
Variable(torch.from_numpy(self.patch_filt[:, :, :, 0])).float()