我使用pybrain构建此示例:
from pybrain.tools.shortcuts import buildNetwork
from pybrain.datasets import SupervisedDataSet
from pybrain.supervised.trainers import BackpropTrainer
net = buildNetwork(3, 3, 1)
dataSet = SupervisedDataSet(3, 1)
dataSet.addSample((0, 0, 0), (0))
dataSet.addSample((1, 1, 1), (0))
dataSet.addSample((1, 0, 0), (1))
dataSet.addSample((0, 1, 0), (1))
dataSet.addSample((0, 0, 1), (1))
trainer = BackpropTrainer(net, dataSet)
trainer.trainUntilConvergence()
result = net.activate([0, 0, 0])
print result
输出为:[0.10563189]
我不明白activate()的输出是什么。网络是训练有素的,我用一个列车样本测试输出,所以我期望值与列车样本完全一样。输入[0,0,0]应该输出0.我在这里缺少什么?我如何获得有效的结果?
更令人困惑的是,每次运行此代码时,我都会得到不同的结果。我显然做错了什么。它是什么?
答案 0 :(得分:7)
训练网络直到收敛并不意味着训练集完全被记住。原因有很多:隐藏层的大小,激活功能,学习速率等。所有这些参数都需要调整。