我的代码非常简单,但是数据集有点问题,因为它的大小可变。
我有一个具有以下结构的自定义数据集:Notes x N_bins x Temp_values
笔记是2904 N_bins总是252 Temp_values取决于音符。
我准备自己的数据集,然后手动进行转换。
class MusicDataSet(Dataset):
def __init__(self, transform=None):
self.ms, self.target, self.tam = sd.loadData()
def __len__(self):
return self.tam
def __getitem__(self, idx):
inp = torch.from_numpy(self.ms[idx]).float()
#Transpose
inp = inp.t()
#to cuda
inp = inp.to('cuda')
target = self.target[idx]
target= torch.from_numpy(self.target[idx])
target = target.long()
target = target.t()
return inp, target
我创建了自己的collate_fn以便能够将数据集拆分为小批量,但是问题是我无法将这些批量作为张量作为列表返回。
def music_collate_fn(batch):
data = [item[0] for item in batch]
target = [item[1] for item in batch]
return data, target
train_loader = torch.utils.data.DataLoader(musicSet, batch_size=10, shuffle=False, collate_fn=music_collate_fn)
class MLP(nn.Module):
def __init__(self):
super(MLP, self).__init__()
self.dense1 = nn.Linear(252, 512)
self.dense2 = nn.Linear(512, 88)
def forward(self, x):
x = self.dense1(x)
x = self.relu(x)
x = self.dense2(x)
return x
火车很简单:
mlp = MLP(input_dim, hidden_dim, output_dim).to(device)
optimizer = torch.optim.RMSprop(mlp.parameters(), lr = learning_rate)
mlp.train()
for batch_idx, (x,y) in enumerate(train_loader):
outputs = mlp(x).to(device)
loss = criterion(outputs, y)
optimizer.zero_grad()
loss.backward()
optimizer.step()
失败:
File "C:\ProgramData\Anaconda3\lib\site-packages\spyder_kernels\customize\spydercustomize.py", line 704, in runfile
execfile(filename, namespace)
File "C:\ProgramData\Anaconda3\lib\site-packages\spyder_kernels\customize\spydercustomize.py", line 108, in execfile
exec(compile(f.read(), filename, 'exec'), namespace)
File "C:/Users/Antonio López León/Documents/Universidad/TFG/PROYECTO/BBDD/audioCQT/ProcesamientoNN.py", line 106, in <module>
print(x.dim())
AttributeError: 'list' object has no attribute 'dim'
我试图对music_collate_fn中的数据进行pad_sequence,并且在馈入网络时起作用,但是目标在计算损耗时给我带来了问题,因此我无法对目标使用padding。< / p>
我需要一些想法使之成为可能。