如何在Keras中有效实施训练多个相关时间序列的方法?

时间:2018-09-04 20:00:32

标签: python-3.x keras time-series recurrent-neural-network

我有5个想要神经网络预测的时间序列。时间序列彼此相关。每个时间序列由0到100之间的数字组成。我想预测每个时间序列的下一个数字。我已经有一个模型可以使用GRU训练一个时间序列,并且效果很好。我尝试了两种策略:

  1. 我对数字进行了归一化处理,并将该问题作为回归问题。迄今为止,最佳的验证精度为0.38。

  2. 我对时间序列进行了一次热编码,这种方法的效果明显更好(附加精度为0.15),但其内存消耗却是后者的100倍。

对于5个时间序列,我尝试了5个独立模型,但是在那种情况下,这5个时间序列之间的关系丢失了。我想知道什么是有效的策略。我可以想到两个自己,但我可能会缺少一些东西:

  1. 我可以堆叠输入,以便有5个热编码的输入,而不是5个热编码的输入。可以做到吗?

  2. 我可以创建5个模型并将其合并。我不确定如何处理输出。我应该拆分模型,每个时间序列一个模型吗?

有没有我忽略的策略?内存是个问题。在成千上万个时间序列中,样本长度为100,数据占用大量内存和处理时间。我四处搜寻,但找不到有效的策略。有人可以建议如何在Keras中有效地解决此问题吗?

0 个答案:

没有答案