LSTM层输出大小与KERAS中的隐藏状态大小

时间:2019-10-04 09:27:07

标签: tensorflow keras lstm recurrent-neural-network

我对理解LSTM的概念并在Keras上使用它感到困惑。考虑LSTM层时,输出大小和隐藏状态大小应该有两个值。

1. hidden state size : how many features are passed across the time steps of a samples when training the model
2. output size       : how many outputs should be returned by particular LSTM layer

但是在keras.layers.LSTM中,只有一个参数,它用于控制图层的输出大小。

问题:

Therefore how hidden state size of the LSTM layer can be changed?

如果我被误解了,请多多指教。

1 个答案:

答案 0 :(得分:-1)

您在LSTM中隐藏单位和输出单位之间的差异感到困惑。请参考下面的链接,以获得更好的清晰度:

https://jasdeep06.github.io/posts/Understanding-LSTM-in-Tensorflow-MNIST/

基本上,您在num_units中提供的只是LSTM隐藏单元的大小。从本文可以很清楚地看到这一点。