我有一个形状为(1,1,256,256)的np.ndarray,当我使用x2 = torch.from_numpy(x)
时,我得到的火炬张量具有非常高和非常大的值,与x无关(好像x2
已被初始化,但未从x复制过来)。
我尝试了一个小例子:
x = np.random.randn(5, 5)
x2 = torch.from_numpy(x)
但是在这种情况下,它可以正常工作...
为什么会这样?
我找到了解决方案!我需要将大小为(1、1、256、256)的数组转换为dtype=float64
,因为默认情况下它是用dtype=float32
编码的,这在转换为Torch张量时会引起问题。