我目前正在尝试自己进行LSTM模型的权重初始化。该模型是这样的:
model <- keras_model_sequential()%>%
layer_lstm(units = 120, input_shape = c(1,120),
return_sequences = T, stateful = T, batch_size = batchsize) %>%
layer_lstm(units = 120,
return_sequences = T, stateful = T) %>%
layer_dense(units = 120)
我得到了该模型的权重,以检查训练后权重的格式。权重采用矩阵列表的格式,例如: enter image description here
我对重量的顺序很困惑。哪个矩阵用于隐藏神经,哪个矩阵用于递归神经?输入门,输出门和忘记门使用什么权重?
How to interpret weights in a LSTM layer in Keras
这解释了Keras中LSTM层中的权重,但它解释了Python中的权重。
还有一个问题,如果权重矩阵是这样的:
1 2 3
4 5 6
3 1 2
第一层的神经名称为1,2,3,第二层的神经名称为4,5,6,结构如下:
Neural_1 Neural_2 Neural_3
Neural_4 Neural_5 Neural_6
这是否表示权重的顺序?
W14 W15 W16
W24 W25 W26
W34 W35 W36