我有一个名为data
的张量,形状为[128, 4, 150, 150]
,其中128是批量大小,4是通道数,最后2个维度是高度和宽度。我还有一个名为fake
的张量[128, 1, 150, 150]
。
我想从list/array
的第二维上删除最后一个data
;数据的形状现在为[128, 3, 150, 150]
;并将其与fake
串联在一起,将串联的输出尺寸设为[128, 4, 150, 150]
。
基本上,换句话说,我想将data
的前3个维度与fake
连接起来以给出4维张量。
我正在使用PyTorch并遇到功能torch.cat()
和torch.stack()
这是我编写的示例代码:
fake_combined = []
for j in range(batch_size):
fake_combined.append(torch.stack((data[j][0].to(device), data[j][1].to(device), data[j][2].to(device), fake[j][0].to(device))))
fake_combined = torch.tensor(fake_combined, dtype=torch.float32)
fake_combined = fake_combined.to(device)
但是我在一行中遇到错误:
fake_combined = torch.tensor(fake_combined, dtype=torch.float32)
错误是:
ValueError: only one element tensors can be converted to Python scalars
此外,如果我打印fake_combined
的形状,我得到的输出将是[128,]
而不是[128, 4, 150, 150]
当我打印fake_combined[0]
的形状时,得到的输出为[4, 150, 150]
,这是预期的。
所以我的问题是,为什么我不能使用torch.tensor()
将列表转换为张量。我想念什么吗?有什么更好的方法可以做我打算做的事吗?
任何帮助将不胜感激!谢谢!
答案 0 :(得分:2)
您还可以分配给该特定尺寸。
orig = torch.randint(low=0, high=10, size=(2,3,2,2))
fake = torch.randint(low=111, high=119, size=(2,1,2,2))
orig[:,[2],:,:] = fake
原先
tensor([[[[0, 1],
[8, 0]],
[[4, 9],
[6, 1]],
[[8, 2],
[7, 6]]],
[[[1, 1],
[8, 5]],
[[5, 0],
[8, 6]],
[[5, 5],
[2, 8]]]])
假
tensor([[[[117, 115],
[114, 111]]],
[[[115, 115],
[118, 115]]]])
之后的原始
tensor([[[[ 0, 1],
[ 8, 0]],
[[ 4, 9],
[ 6, 1]],
[[117, 115],
[114, 111]]],
[[[ 1, 1],
[ 8, 5]],
[[ 5, 0],
[ 8, 6]],
[[115, 115],
[118, 115]]]])
希望这会有所帮助! :)
答案 1 :(得分:1)
@ rollthedice32的答案非常好。出于教育目的,这里使用torch.cat
a = torch.rand(128, 4, 150, 150)
b = torch.rand(128, 1, 150, 150)
# Cut out last dimension
a = a[:, :3, :, :]
# Concatenate in 2nd dimension
result = torch.cat([a, b], dim=1)
print(result.shape)
# => torch.Size([128, 4, 150, 150])