当我将sklearn神经网络(MLPRegressor)安装到非常小的数据集(50个元素)和18个输入要素时。 每次运行神经网络时,我都会得到波动很大的输出。原因是 每次都会初始化参数(权重和偏差),输入的数量显然不足以适合神经网络。我必须强调,MLP回归函数的最大迭代次数设置为2000,因此应该收敛。这可能是过度拟合的问题,但是对于不同的层-节点组合,它会波动。如何解决这个问题?
与随机forrest(0.2 eV),线性多项式拟合(0.18 eV)和高斯回归(0.17)相比,误差很大。绘制了RMSE,目标变量在区间[-1,2]中。
神经网络的大小为3 * 2 根据{{3}}设计原则,该现象对于其他几何形状不会改变。如果结果波动很大,则很难进行超参数搜索。