如何训练不同时间长度的RNN LSTM seq2seq回归

时间:2019-07-02 04:02:14

标签: keras lstm recurrent-neural-network seq2seq

我已经阅读了强大的编解码器RNN结构,可长期进行seq2seq预测。在这种情况下,我不确定采用en-de结构和培训来解决长序列问题的正确方法是什么。

我用Python重写了RNN LSTM seq2seq reg代码。我希望它可以在火车上以不同的序列长度工作,而不用固定所有序列的填充,即我希望自定义标准化的数据流能够拟合模型。

我选择了每20 seq中的5只猫来训练一批批次中具有相同时间步长但批次之间长度不同的网络,类似于MATLAB Sequence-to-Sequence Regression Using Deep Learning,其中:

  1. 在每批中包装不同长度的不同数据长度以适合训练模型,

  2. 使用该数据如何在每批使用不同填充的训练中顺利添加1个问题。

我在Python中将Keras与Tenserflow后端一起使用。如果需要,我将发布代码。

0 个答案:

没有答案