神经网络训练标准:如何在没有过度训练的情况下训练多个类别(即形状和颜色)

时间:2015-08-18 17:22:57

标签: java machine-learning neural-network image-recognition encog

我一直在通过神经网络探索图像识别。经过一些研究,我开始使用Encog和他们的" ImageNeuralNetwork.java"示例

在他们的例子中,他们使用每张美国货币硬币(便士,角钱等)的一张图像作为训练集,然后相应地识别硬币的给定图像。

现在我想用他们的例子作为练习不同图像的起点。我尝试使用形状/颜色作为训练。例如,我希望程序识别红色圆圈和红色矩形之间的差异,但我也想识别红色圆圈和蓝色圆圈之间的区别。

我记得你读过你不应该过度训练并提供训练图像的所有可能组合(就像在这种情况下给出4个图像,2个不同颜色的圆圈和2个不同颜色的矩形)。

我是否仍然可以使用Encog的硬币识别示例来训练多个类别(形状和颜色)或者这是另一个概念吗?我是否可以提供特定最小数量的训练图像而不提供每种可能的颜色/形状组合,从而过度训练?

1 个答案:

答案 0 :(得分:1)

当涉及到避免过度训练时,没有可靠的拇指规则。这完全取决于您的网络结构和数据功能。大多数构建神经网络的人通过反复试验来管理过度训练(或过度拟合)的问题。只要您的网络正在以高精度对训练数据进行分类并且测试数据准确性较差,您就会过度训练,并且需要减少训练迭代并再次构建网络并不断重复此操作。所以要回答你的第二个问题,没有特别的最小数量的图像。

关于你的第一个问题,你绝对可以训练多个类别,有几种方法可以做到这一点......要么通过为每个类别提供多个输出神经元,要么通过编码输出......但最常见的是每个类别的单独网络效果更好。同样,对于颜色或形状识别,在大多数情况下,主成分分析与神经网络相比效果更好。