LSTM重量矩阵解释

时间:2017-03-09 01:15:52

标签: neural-network keras lstm recurrent-neural-network

考虑Keras中的以下代码来构建LSTM模型。

    model = Sequential()
    model.add(LSTM(30, input_dim=22,return_sequences=True, init = 'glorot_uniform'))

    model.add(TimeDistributed(Dense(1)))
    model.compile(loss='mean_squared_error', optimizer='Nadam')

    model.fit(train3d, trainY3d, nb_epoch=100, batch_size=8)

可以看出,只有1个LSTM层。我看到有14个矩阵作为输出。如果你检查这个link,你会注意到LSTM层有4个三元组(输入门,忘记门,单元状态,输出门),W,U(参数矩阵)和b(偏置矢量)。然后,密集层有2个矩阵W和b。

我的问题是,对于1层LSTM的这种情况,有没有办法将100%的Y归因于所有i的每个输入要素X_i的影响。

0 个答案:

没有答案