我正在尝试使用支持向量回归执行简单的时间序列预测。
我想了解here提供的答案。
我改编了Tom的代码以反映所提供的答案:
import numpy as np
from matplotlib import pyplot as plt
from sklearn.svm import SVR
X = np.arange(0,100)
Y = np.sin(X)
a = 0
b = 10
x = []
y = []
while b <= 100:
x.append(Y[a:b])
a += 1
b += 1
b = 10
while b <= 90:
y.append(Y[b])
b += 1
svr_rbf = SVR(kernel='rbf', C=1e5, gamma=1e5)
y_rbf = svr_rbf.fit(x[:81], y).predict(x)
figure = plt.figure()
tick_plot = figure.add_subplot(1, 1, 1)
tick_plot.plot(X, Y, label='data', color='green', linestyle='-')
tick_plot.axvline(x=X[-10], alpha=0.2, color='gray')
tick_plot.plot(X[10:], y_rbf[:-1], label='data', color='blue', linestyle='--')
plt.show()
但是,我仍然得到相同的行为 - 预测只返回上一个已知步骤的值。奇怪的是,如果我将内核设置为linear
,结果会好得多。为什么rbf
内核预测不能按预期工作?
谢谢。
答案 0 :(得分:3)
我知道这是一个老问题,但我会回答,因为其他人可能会从答案中受益。
如果您的示例使用线性内核而不使用rbf,那么您用于C和gamma的值很可能是问题。 C和gamma是用于非线性内核的SVM参数。有关C和gamma直观的goodexplanation,请看一下:http://scikit-learn.org/stable/auto_examples/svm/plot_rbf_parameters.html?
为了预测正弦曲线的值,尝试C = 1且γ= 0.1。它比你拥有的值表现得更好。