我有一组随时间变化的数据点作为输入。让我们在任何时间t用X(t) = \[x1 x2 x3.....xn\](t)
表示。相应的输出为Y(t) = \[y1 y2 y3....ym\](t)
。我想将X和Y馈入机器学习模型并学习它们之间的关系,以便当我给出下一组X(t+1)
时,该模型会预测Y(t+1)
。
这是多标签分类的问题吗?
答案 0 :(得分:0)
您可以通过调用任何机器学习分类器来预测值 预测功能。类似于下面的代码。
from sklearn import tree
dtr = tree.DecisionTreeClassifier()
dtr.fit(X_train,y_train)
y_head_dtr = dtr.predict(X_test)
首先,您要拟合模型,然后通过预测功能进行预测。