最近我使用lstm来预测时间序列。我使用keras 2.0来构建我的lstm模型。它有这样的结构:
model = Sequential()
model.add(LSTM(128, input_shape=(timesteps, 1), return_sequences=False, stateful=False)
model.add(Dropout(rate=0.1))
model.add(Dense(1))
我曾试图使用这个网络预测几个时间序列,包括sin(t)和一个真实的交通流量数据集。我发现对sin的预测很好,而对真实数据集的预测就像将最后一个输入值移动一步一样。我不知道它是预测错误还是网络根本没有学习数据集的模式。有没有人得到类似的结果?这个烦人的转变有什么解决方案吗?非常感谢。
以下是我的一些预测:
答案 0 :(得分:1)
这只是您网络的起点,您必须通过尝试各种方法来解决这个问题。
仅举几例:
列表继续......