我没有找到太多有关此的信息,但是我认为必须有一种方法,因为存在一个
tf.keras.layers.Attention
将该层连接到现有seq2seq顺序张量流模型的正确方法是什么?
这是关于我所拥有的
model = Sequential()
model.add(LSTM(32, input_shape=training_x[0].shape, dropout=0.5))
model.add(RepeatVector(daysToPredict))
model.add(LSTM(32, return_sequences=True, dropout=0.5))
model.add(TimeDistributed(Dense(1, activation='linear')))
有没有办法在这里的某个地方添加Attention层?