PyTorch中的Concat张量

时间:2019-02-16 21:10:44

标签: python machine-learning pytorch tensor

我有一个名为data的张量,形状为[128, 4, 150, 150],其中128是批量大小,4是通道数,最后2个维度是高度和宽度。我还有一个名为fake的张量[128, 1, 150, 150]

我想从list/array的第二维上删除最后一个data;数据的形状现在为[128, 3, 150, 150];并将其与fake串联在一起,将串联的输出尺寸设为[128, 4, 150, 150]

基本上,换句话说,我想将data的前3个维度与fake连接起来以给出4维张量。

我正在使用PyTorch并遇到功能torch.cat()torch.stack()

这是我编写的示例代码:

fake_combined = []
        for j in range(batch_size):
            fake_combined.append(torch.stack((data[j][0].to(device), data[j][1].to(device), data[j][2].to(device), fake[j][0].to(device))))
fake_combined = torch.tensor(fake_combined, dtype=torch.float32)
fake_combined = fake_combined.to(device)

但是我在一行中遇到错误:

fake_combined = torch.tensor(fake_combined, dtype=torch.float32)

错误是:

ValueError: only one element tensors can be converted to Python scalars

此外,如果我打印fake_combined的形状,我得到的输出将是[128,]而不是[128, 4, 150, 150]

当我打印fake_combined[0]的形状时,得到的输出为[4, 150, 150],这是预期的。

所以我的问题是,为什么我不能使用torch.tensor()将列表转换为张量。我想念什么吗?有什么更好的方法可以做我打算做的事吗?

任何帮助将不胜感激!谢谢!

2 个答案:

答案 0 :(得分:2)

您还可以分配给该特定尺寸。

orig = torch.randint(low=0, high=10, size=(2,3,2,2))
fake = torch.randint(low=111, high=119, size=(2,1,2,2))
orig[:,[2],:,:] = fake

原先

tensor([[[[0, 1],
      [8, 0]],

     [[4, 9],
      [6, 1]],

     [[8, 2],
      [7, 6]]],


    [[[1, 1],
      [8, 5]],

     [[5, 0],
      [8, 6]],

     [[5, 5],
      [2, 8]]]])

tensor([[[[117, 115],
      [114, 111]]],


    [[[115, 115],
      [118, 115]]]])

之后的原始

tensor([[[[  0,   1],
      [  8,   0]],

     [[  4,   9],
      [  6,   1]],

     [[117, 115],
      [114, 111]]],


    [[[  1,   1],
      [  8,   5]],

     [[  5,   0],
      [  8,   6]],

     [[115, 115],
      [118, 115]]]])

希望这会有所帮助! :)

答案 1 :(得分:1)

@ rollthedice32的答案非常好。出于教育目的,这里使用torch.cat

a = torch.rand(128, 4, 150, 150)
b = torch.rand(128, 1, 150, 150)

# Cut out last dimension
a = a[:, :3, :, :]
# Concatenate in 2nd dimension
result = torch.cat([a, b], dim=1)
print(result.shape)
# => torch.Size([128, 4, 150, 150])