如何用递归神经网络推断偏差?

时间:2017-09-26 01:58:42

标签: machine-learning neural-network deep-learning lstm recurrent-neural-network

我的数据集包括两个数字预测因子(以美元计),从2014年到现在每周拍摄。我预测以美元衡量的实数(回归问题)。我有域名特定的理由相信前几周的预测因素会影响本周的输出,因此,根据我的原始数据,我形成了N周的窗口。因此我的训练输入有形状(~300,N,2),我的训练输出有形状(~300,1)。

两个预测变量都会驱动输出变量,因此当其中一个预测变量被切割为0时,输出变量应该开始下降。下降不应该是立竿见影的,因为问题域暗示了光环效应"。

我们希望当两个预测变量都减少到0时,输出不应该降到0,而是降低到某些预测值"偏差" (基线)。我们知道这个基线就在那里,但到目前为止,它对我们来说是一个幽灵。 我在Keras中设置了一个循环(LSTM / GRU)模型,即使我的数据集很小,模型也会根据数据进行下降工作。但是,由于数据集涉及实际支出模式,因此它是季节性的并且具有趋势,因此当我将预测变量切换为0时,输出变量要么遵循此趋势,要么直接变为0(有时甚至是负数)。无论哪种方式,它都不会产生我追求的基线(偏见)。

有没有人有类似问题的经验?我会喜欢一些建议。

0 个答案:

没有答案