时间序列预测CNN + LSTM

时间:2020-09-30 21:15:46

标签: python keras time-series lstm cnn

对于CNN和LSTM的组合,我有一些概念性的问题要问。我已经完成了一项权利,但是比知识更幸运,因为我会遵循在互联网上看到的一切。

  1. 为什么Conv1d的输入形状必须为=(无,look_back,n_features),当我们单独使用它时,会传递(look_back,n_features)? 2)为什么我们需要将X_train重塑为4个暗角?
  2. 为什么我们需要在第一个LSTM层中传递Activation ='relu'?

我将代码留在下面

model = Sequential()
model.add(TimeDistributed(Conv1D(filters=30,kernel_size=3,activation='relu'),input_shape=(None,look_back,5)))
model.add(TimeDistributed(MaxPooling1D(pool_size=2)))
model.add(TimeDistributed(Conv1D(15,kernel_size=3,activation='relu')))
model.add(TimeDistributed(Flatten()))
model.add(LSTM(100,return_sequences=True,activation='relu'))
model.add(Dropout(0.3))
model.add(LSTM(50,return_sequences=True))
model.add(Dropout(0.3))
model.add(LSTM(25,return_sequences=False))
model.add(Dropout(0.3))
model.add(Dense(1,activation='relu'))
model.compile(optimizer='adam',loss='mse',metrics=['mae'])

非常感谢

0 个答案:

没有答案