用于信号回归的LSTM模型中的训练数据分布变化

时间:2019-04-25 15:13:50

标签: regression signal-processing lstm pytorch recurrent-neural-network

我正在尝试使用LSTM训练序列模型,以在输入信号具有相同长度的情况下回归输出信号。输入/输出对是来自几个较长信号(50,000个时间步长)的短信号片段(100〜1000个时间步长),以便填充更多训练数据。

我的问题是,这些长信号中的每一个都有其自己的分布,与其他信号不同。差异不是很大,但很明显。当分布不同时,我的LSTM模型收敛不理想。为了检查我的模型,我模拟了一些具有相同动力学但具有恒定分布的信号,并且我的模型非常适合于回归任务。

我的问题是如何处理这样的问题?我已经看到了一些解决方案,例如选择性抽样(保持样本具有相似的分布)或分布映射,但是所有这些都针对常规神经网络进行了解释。在处理此问题时,我正在寻找一些有关序列建模的建议。

0 个答案:

没有答案