我对理解LSTM的概念并在Keras上使用它感到困惑。考虑LSTM层时,输出大小和隐藏状态大小应该有两个值。
1. hidden state size : how many features are passed across the time steps of a samples when training the model
2. output size : how many outputs should be returned by particular LSTM layer
但是在keras.layers.LSTM中,只有一个参数,它用于控制图层的输出大小。
问题:
Therefore how hidden state size of the LSTM layer can be changed?
如果我被误解了,请多多指教。
答案 0 :(得分:-1)
您在LSTM中隐藏单位和输出单位之间的差异感到困惑。请参考下面的链接,以获得更好的清晰度:
https://jasdeep06.github.io/posts/Understanding-LSTM-in-Tensorflow-MNIST/
基本上,您在num_units中提供的只是LSTM隐藏单元的大小。从本文可以很清楚地看到这一点。