我只是想知道:与其他方法(例如逻辑回归,线性回归和支持向量回归)相比,为什么GPR非常适合时间序列数据?为什么GPR具有优势? 提前谢谢你的帮助〜
答案 0 :(得分:0)
简答:标准(贝叶斯)回归方法通常将所有变量视为同一基础,因此不会包含有关系统进展的信息。例如,一个常见的假设是概率密度是可分的p(x_1, ... x_N) = p(x_1) * ... * p(x_N)
。
隐藏马尔可夫模型(以及高斯过程,如果我记得正确阅读Bishop's Machine Learning)等方法,而是使用条件概率密度(马尔可夫过程),例如:
p(x_1, ... x_N) = p(x_N | x_{N-1}) * ... * p(x_2 |x_1) * p(x_1)
通过这种方式,可以将一些信息纳入系统的演变中。
答案 1 :(得分:0)
Neal透露,许多基于神经网络的贝叶斯回归模型在无限网络的极限下收敛于高斯过程(GP)。要建模时间序列,神经网络是不错的选择,因此GPR也是一个不错的选择。此外,很多时间序列都满足GPR的假设,即所有的观测都是高斯的。我认为这可能是一个重要的原因。
最后,我认为GPR非常适合回归模型。
Neal,R。M.(1996)Bayesian Learning for Neural Networks,Lecture Notes in Statistics No. 118,New York:Springer-Verlag:blurb,related references,associated software。