There is an example of LSTM for pytorch
以下代码在使用CPU或1 GPU时工作正常。但是,当我使用超过1个GPU时,它会出错:
AttributeError:模块'torch'没有属性'long'
导致错误的代码:
def prepare_sequence(seq, to_ix):
idxs = [to_ix[w] for w in seq]
return torch.tensor(idxs, dtype=torch.long)
为什么它不能用于多个GPU?
答案 0 :(得分:0)
尝试:
def prepare_sequence(seq, to_ix):
idxs = [to_ix[w] for w in seq]
return torch.LongTensor(idxs)