我有一个时间序列,值的范围是<0,1000>,我做了三个实验。
在第一个中,我将原始值传递到RNN
在第二个中,我使用MinMaxScaler(),默认范围为0-1
在第三个中,我使用了StandardScaler()
当RNN预测我的时间序列中的零序列时,我注意到了一个奇怪的异常。使用原始数据,它可以正确执行操作,我希望在另一个实验中也能得到类似的结果,但是预测却要差得多。 下面的图片代表三个实验的结果(红色-预测,黑色-真实):
我们可以看到零值之间的巨大差异。无论是否使用缩放,我都希望得到类似的结果。为什么会这样呢?谁能解释标度方法如何影响神经网络性能?我想添加第二个通道(带有二进制值),并且需要以某种方式对其进行缩放。如何处理?