使用Keras从LSTM神经网络中提取权重

时间:2018-03-22 16:09:15

标签: tensorflow keras lstm recurrent-neural-network

我在keras训练了一个递归神经网络(LSTM),但现在我正努力将所有碎片放在一起。具体来说,我无法理解如何重构权重矩阵。

我有一个输入,一个隐藏和一个输出层,如下所示:

# create the model
model = Sequential()
model.add(LSTM(100, dropout=0.5, recurrent_dropout=0.5, input_shape=(timesteps, data_dim), activation='tanh'))
model.add(Dense(5, activation='softmax'))

当我调用model.get_weights()时,我只获得隐藏和输出图层的偏置单位,但输入图层的偏差单位似乎丢失了。也就是说,我有一个15x400矩阵,然后是400x101和101X5。

我在这里错过了哪些东西?

感谢您的帮助

1 个答案:

答案 0 :(得分:0)

Sequential是Keras中的模型,而不是输入层。 神经网络中的输入层只是将输入传递给隐藏层,并且它不需要偏置神经元。 在您的情况下,model.get_weights()返回这些数组


(15,400)
(100,400)
(400,)
(100,5)
(5)


其中
(400,)是LSTM层的偏置数组
(5,)是密集层的偏置数组