Keras中LSTM / GRU中隐藏层的困惑

时间:2019-08-17 20:16:58

标签: python keras lstm recurrent-neural-network

我知道诸如herehere之类的问题,但他们无法为我澄清以下内容。

给出一些随机的LSTM模型,如下所示:

model = Sequential()
model.add(LSTM(12, input_dim=8, activation='relu')) # Input and Hidden 1
model.add(LSTM(8)) # Hidden 2
model.add(LSTM(8)) # Hidden 3
model.add(Dense(1)) # Output

在阅读有关这样的设置的信息时,例如SO,经常有人说我们有一个包含输入层,三个隐藏层和一个输出层的网络。

无论如何,我感到困惑的是:这不是将三个LSTM堆叠成一个 deep-LSTM 而不是三个隐藏层吗?
这意味着其中的任何一个三个LSTM应该可以选择在其内部设置可变种类的隐藏层(在Keras中显然没有)。

为了方便起见,Keras只是将这些层称为 LSTM 还是误解了LSTM堆栈的概念?还是LSTM单元仅仅是隐藏层的一种形式?

0 个答案:

没有答案