基于支持向量回归的时间序列预测

时间:2014-07-01 19:27:04

标签: python machine-learning time-series scikit-learn regression

我正在尝试使用支持向量回归执行简单的时间序列预测。

我想了解here提供的答案。

我改编了Tom的代码以反映所提供的答案:

import numpy as np
from matplotlib import pyplot as plt
from sklearn.svm import SVR

X = np.arange(0,100)
Y = np.sin(X)

a = 0
b = 10
x = []
y = []
while b <= 100:
    x.append(Y[a:b])
    a += 1
    b += 1
b = 10

while b <= 90:
    y.append(Y[b])
    b += 1

svr_rbf = SVR(kernel='rbf', C=1e5, gamma=1e5)
y_rbf = svr_rbf.fit(x[:81], y).predict(x)

figure = plt.figure()
tick_plot = figure.add_subplot(1, 1, 1)
tick_plot.plot(X, Y, label='data', color='green', linestyle='-')
tick_plot.axvline(x=X[-10], alpha=0.2, color='gray')
tick_plot.plot(X[10:], y_rbf[:-1], label='data', color='blue', linestyle='--')
plt.show()

但是,我仍然得到相同的行为 - 预测只返回上一个已知步骤的值。奇怪的是,如果我将内核设置为linear,结果会好得多。为什么rbf内核预测不能按预期工作?

谢谢。

1 个答案:

答案 0 :(得分:3)

我知道这是一个老问题,但我会回答,因为其他人可能会从答案中受益。

如果您的示例使用线性内核而不使用rbf,那么您用于C和gamma的值很可能是问题。 C和gamma是用于非线性内核的SVM参数。有关C和gamma直观的goodexplanation,请看一下:http://scikit-learn.org/stable/auto_examples/svm/plot_rbf_parameters.html

为了预测正弦曲线的值,尝试C = 1且γ= 0.1。它比你拥有的值表现得更好。