标签: r keras lstm
我最近开始使用LSTM,到目前为止一切正常。但是有一个问题,我还没有找到答案:当时间步长比单位多时,LSTM层中的过程看起来如何?
我在R中使用keras建模温度。这是架构:
model <- keras_model_sequential() %>% layer_lstm(units = 30, input_shape = c(timesteps = 60, features = 2)) %>% layer_dense(units = 1)
答案 0 :(得分:1)
实际上LSTM一次阻止了一个时间步长的处理。 units参数实际上是输出空间的维数。因此,它基本上与时间步长无关。
units
更具体地说,LSTM或RNN的输入和输出应如下所示: (时间步长,input_dim)-> LSTM->(时间步长,output_dim)
但是,return_sequences参数默认为False(在Keras Python中,不确定R)。因此,默认情况下,LSTM层将返回最后个时间步状态作为输出。这就是为什么您可以将其连接到密集层的原因。
return_sequences
False