修剪Keras前馈网络的输出

时间:2018-08-08 01:34:00

标签: neural-network keras

我正在Keras中使用一个简单的前馈网络来解决回归问题。网络的设置非常简单:3个隐藏层具有tanh激活,输出层具有一个具有线性激活的单个节点。

但是,我注意到输出具有一些相当极端的值,如下所示:

Output of network

我有点担心极限值将主导损耗函数(MSE),因此我想对其进行调整。在Keras中有办法做到这一点吗?

1 个答案:

答案 0 :(得分:0)

我认为您是指正则化(L1,L2,...):https://keras.io/regularizers/(即在Dense层中)

另请参阅https://keras.io/layers/core/#lambda