为什么增加的功能会导致更糟的神经网络性能?

时间:2018-05-01 16:52:35

标签: tensorflow neural-network keras

我有一个回归问题,并使用Keras配置了一个多层神经网络。原始数据集具有286个特征,并且使用20个历元,NN收敛到MSE损失~0.0009。这是使用Adam优化器。

然后我添加了另外三个功能,并且使用相同的配置,NN将不会收敛。在1个纪元之后,它会以0.003的损失陷入困境,因此显着恶化。

在检查新功能是否正确表示后,我尝试了以下操作但没有成功:

  • 调整图层数
  • 调整每层神经元的数量
  • 包括辍学层
  • 调整学习率

这是我的原始配置:

model = Sequential()
model.add(Dense(300, activation='relu', 
input_dim=training_set.shape[1]))
model.add(Dense(100, activation='relu'))
model.add(Dense(100, activation='relu'))
model.add(Dense(1, activation='linear'))
model.compile(optimizer='Adam',loss='mse')

有人有什么想法吗?

0 个答案:

没有答案