我正在使用顺序模型创建用于keras中时间序列预测的LSTM模型,并且在合理的时间范围内生成足够高级的模型时遇到了问题。
我当前要生成的模型是两个分层的150个节点,并运行1000个纪元。我使用的数据是大约750000个数据点的简单时间序列。在我的PC上这大约需要70个小时,而在高层AWS E2服务器上却没有更快的速度。在这两种情况下,尽管可用72个核,但它从未使用超过4个核。
我想知道是否有一种使用多核训练模型的方法。 LSTM是否可行?我见过其他人使用fit_generator函数开发LSTM,并在我的模型中进行了尝试(根据建议调整了训练数据集),但是发现模型的训练速度没有提高。任何对此的见识将不胜感激。