我在keras训练了一个递归神经网络(LSTM),但现在我正努力将所有碎片放在一起。具体来说,我无法理解如何重构权重矩阵。
我有一个输入,一个隐藏和一个输出层,如下所示:
# create the model
model = Sequential()
model.add(LSTM(100, dropout=0.5, recurrent_dropout=0.5, input_shape=(timesteps, data_dim), activation='tanh'))
model.add(Dense(5, activation='softmax'))
当我调用model.get_weights()
时,我只获得隐藏和输出图层的偏置单位,但输入图层的偏差单位似乎丢失了。也就是说,我有一个15x400矩阵,然后是400x101和101X5。
我在这里错过了哪些东西?
感谢您的帮助
答案 0 :(得分:0)
Sequential是Keras中的模型,而不是输入层。
神经网络中的输入层只是将输入传递给隐藏层,并且它不需要偏置神经元。
在您的情况下,model.get_weights()返回这些数组
(15,400)
(100,400)
(400,)
(100,5)
(5)
其中
(400,)是LSTM层的偏置数组
(5,)是密集层的偏置数组