我知道诸如here或here之类的问题,但他们无法为我澄清以下内容。
给出一些随机的LSTM模型,如下所示:
model = Sequential()
model.add(LSTM(12, input_dim=8, activation='relu')) # Input and Hidden 1
model.add(LSTM(8)) # Hidden 2
model.add(LSTM(8)) # Hidden 3
model.add(Dense(1)) # Output
在阅读有关这样的设置的信息时,例如SO,经常有人说我们有一个包含输入层,三个隐藏层和一个输出层的网络。
无论如何,我感到困惑的是:这不是将三个LSTM堆叠成一个 deep-LSTM 而不是三个隐藏层吗?
这意味着其中的任何一个三个LSTM应该可以选择在其内部设置可变种类的隐藏层(在Keras中显然没有)。
为了方便起见,Keras只是将这些层称为 LSTM 还是误解了LSTM堆栈的概念?还是LSTM单元仅仅是隐藏层的一种形式?