我试图使用MNIST数据集实现简单的NN,但我不断收到此错误 导入matplotlib.pyplot作为plt
import torch
from torchvision import models
from torchvision import datasets, transforms
from torch import nn, optim
import torch.nn.functional as F
import helper
transform = transforms.ToTensor()
train_data = datasets.MNIST(root='data', train=True,
download=True, transform=transform)
test_data = datasets.MNIST(root='data', train=False,
download=True, transform=transform)
train_loader = torch.utils.data.DataLoader(train_data, batch_size = 20, shuffle=True)
test_loader = torch.utils.data.DataLoader(test_data, batch_size = 20, shuffle=True)
class Net(nn.Module):
def __init__(self):
super(Net,self).__init__()
self.fc1 = nn.Linear(784,10)
def forward(self,x):
x = x.view(-1,784)
x = F.relu(self.fc1(x))
x = F.log_softmax(x, dim = 1)
return x
model = Net()
criterion = nn.NLLLoss()
optimizer = optim.Adam(model.parameters(), lr = 0.003)
epochs = 20
model.train()
for epoch in range(epochs):
train_loss = 0
for image, lables in train_data:
optimizer.zero_grad()
output = model(image)
loss = criterion(output, lables)
loss.backwards()
optimizer.step()
train_loss += loss.item()*image.size(0)
train_loss = train_loss/len(train_data.dataset)
print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch+1, train_loss))
这是错误 RuntimeError:维度指定为0,但张量没有维度
答案 0 :(得分:0)
您直接遇到的问题是NLL损失期望至少一维的labels
(您正在拼写lables
btw)张量,并且得到0维张量(又名标量)。如果您看到这种消息,最好print(output.shape, labels.shape)
以便于检查。该错误的根源是您可能错误地运行了for image, labels in train_data
而不是for image, labels in train_loader
。结果是您的数据没有被批处理-批处理dataset
出来的标量会创建NLLLoss
抱怨的缺失维度。
修复此问题后,我们将修复backwards
-> backward
,最后修复len(train_data.dataset)
-> len(train_data)
。然后循环开始工作(如果是合理的网络等,我没有测试)。
作为补充,可以使用CrossEntropyLoss
组合NLLLoss
和log_softmax
,这具有额外的数值稳定性的优点。