我正在建立一个回归器ANN(MLP,所有节点上的ReLU,Adam优化器)来对工业过程进行建模。我正在训练我的模型,以预测输入A1将如何受到该过程的影响,因此我具有输入A1,B和C,输出为ΔA(A2-A1)。但是,我在预测中发现了一个有趣的趋势。看来误差与ΔA成反比(线性关系)。对于较低的ΔA值,该误差从高开始,并且在某些时候,该误差从正变为负,并继续减小(即绝对值增大)。因此,换句话说,我得到了有偏见的预测错误。
据我所知,我已经对ANN进行了优化。我用来分析错误的所有参数都处于合理的水平。
我不确定这到底是什么意思。这是否表示我选择的输入不能完全解释A的变化,还是ANN的缺陷?很抱歉,如果没有实际看到我的ANN或数据,很难知道。另一方面,是否有一种“让ANN知道”这种趋势正在发生以便可以纠正的方法?
OBS .:如果我使用相同的输入并以A2作为输出而不是ΔA来训练我的网络,则该模型可以很好地工作。可以发现更低的误差,并且没有发现预测误差的趋势。这就是为什么我认为我的意见足以解释这一过程的原因之一(即不应遗漏拼图)。