对于不同的网络体系结构,Adam优化器陷入相同的损失值

时间:2019-07-07 02:11:28

标签: python tensorflow machine-learning optimization

我正在尝试创建一个神经网络模型来近似某些功能。我正在使用adam优化器来最小化损失函数。这不是我第一次尝试这样做-我之前一直在尝试简化简单函数,而不必为Adam优化器进行任何调整。

现在,对于这个特殊的问题,我尝试了2种不同的设置。唯一的区别是,一种设置具有较少的点来计算损耗,并且多层感知器的隐藏层少了1个,每层的神经元也少了。另一个具有更多的点来计算损耗,并且每层都有更多的神经元。

但是,它们两个现在仍在运行,并且停留在相同的损失函数值上,我觉得很奇怪。当然,它们达到此损失函数值的“速度”并不相同,但是仍然很奇怪,计算损失的点不同而损失值却相同。损失函数是一样的,顺便说一句。

我已经一遍又一遍地检查了我的代码-我认为我的损失函数没有任何问题。难道仅仅是亚当优化器被卡住了吗?我应该降低学习率吗?还是我也需要调整其他参数?

建议表示赞赏!

0 个答案:

没有答案