在pytorch中,我有一个可能是IntTensor
或cuda.IntTensor
的变量。它需要更改为64位保留cpu / gpu。 variable.long()
在pytorch的所有实现上都保证64位吗?如果没有,如何将变量转换为64位保留所有实现的cpu / gpu?
答案 0 :(得分:0)
从PyTorch文档here,torch.LongTensor
或torch.cuda.LongTensor
可用于确保64位有符号整数。
同样,对于64位浮点,您可以使用torch.DoubleTensor
或torch.cuda.DoubleTensor
。
您可以使用Variable(tensor)
方法将它们转换为变量,其中tensor
表示上面创建的张量。