我运行一个简单的神经网络进行训练。输入是12个功能,输出是25.我使用tflearn运行代码,但截图显示,为什么最终精度不在0.68左右?
我的代码是:
#Set network variables and hyperparameters
nIn = 12
nHidden = 200
nOut = 25
alpha = 0.01
nEpochs = 500
testSplit = 0.2
batchSize = 32
input_layer = tflearn.input_data(shape=[None, nIn])
layer2 = tflearn.fully_connected(input_layer, nHidden, activation="relu")
out = tflearn.fully_connected(layer2, nOut, activation="softmax")
#sgd = tflearn.optimizers.SGD(learning_rate=0.001, lr_decay=0.0, decay_step=1000, staircase=False, use_locking=False)
network = tflearn.regression(out, optimizer="adam", loss="categorical_crossentropy",batch_size=batchSize)
model = tflearn.DNN(network)
#Number of data points used for testing
num_test = int(testSplit * len(data))
#Split data into train and test
trainX = dataX[:-num_test]
testX = dataX[-num_test:]
trainY = dataY[:-num_test]
testY = dataY[-num_test:]
model.fit(trainX, trainY, n_epoch=nEpochs, show_metric=True)
print("Final Accuracy:", model.evaluate(testX, testY))
任何帮助都将不胜感激。
答案 0 :(得分:2)
在代码结束时,您会看到使用验证集计算模型的准确性。这意味着:在此之前,您的模型永远不会看到该数据。
当您在训练数据上训练网络时,它会在多次迭代中重复使用相同的数据。在您的情况下,它使用您的整个训练集至少499次并调整它的参数。当您使用验证集时,它从未见过该数据,并且性能会比您的训练数据更差。这绝对是常见的。
我建议您使用验证数据在培训期间验证您的模型。可能导致训练和测试准确性之间存在较大差距的常见问题是所谓的overfit
。这意味着您的模型参数对训练数据的调整过多,无法很好地概括为新数据。通过比较验证/测试准确性和训练准确性,您将能够检测到这种情况。如果第一次增加,而第二次减少,你将有一个过度装备。