我是机器学习的新手。我几个星期以来一直在努力解决问题,我希望有人可以在这里提供帮助:
我有一个带有一个连续变量的数据集,其余的是分类的。我设法对分类变量进行编码,并希望构建一个多输出分类器。
这是我的数据集: Snapshot of my data set 我有这些功能:A,B 我想预测:C,D,E,F,G
数据集如下所示:A,B,C,D,E,F,G
我花了几天时间在scikitlearn上的多输出分类器的文档上,但这里没有任何文档对我来说很清楚。
任何人都可以指出我正确的方向找到一些关于如何创建分类器和使用一些样本数据进行预测的示例代码吗?
提前谢谢你 P.S:我没有使用TensorFlow,非常感谢你对sklearn的帮助。
答案 0 :(得分:5)
这称为multi-task learning,它基本上是指学习多个功能但共享(部分或全部)权重的模型。它相当常见,例如一种用于图像识别和检测的模型。你需要做的是定义几个损失函数(它们被称为 head )。
这是张量流中的一个非常简单的示例,它从Y1
(来自this post series)学习Y2
和X
:
# Define the Placeholders
X = tf.placeholder("float", [10, 10], name="X")
Y1 = tf.placeholder("float", [10, 1], name="Y1")
Y2 = tf.placeholder("float", [10, 1], name="Y2")
# Define the weights for the layers
shared_layer_weights = tf.Variable([10,20], name="share_W")
Y1_layer_weights = tf.Variable([20,1], name="share_Y1")
Y2_layer_weights = tf.Variable([20,1], name="share_Y2")
# Construct the Layers with RELU Activations
shared_layer = tf.nn.relu(tf.matmul(X,shared_layer_weights))
Y1_layer = tf.nn.relu(tf.matmul(shared_layer,Y1_layer_weights))
Y2_layer_weights = tf.nn.relu(tf.matmul(shared_layer,Y2_layer_weights))
# Calculate Loss
Y1_Loss = tf.nn.l2_loss(Y1,Y1_layer)
Y2_Loss = tf.nn.l2_loss(Y2,Y2_layer)
如果您希望使用纯scikit进行编码,请参阅sklearn.multiclass
包,它们支持多输出分类和多输出回归。这是多输出回归的一个例子:
>>> from sklearn.datasets import make_regression
>>> from sklearn.multioutput import MultiOutputRegressor
>>> from sklearn.ensemble import GradientBoostingRegressor
>>> X, y = make_regression(n_samples=10, n_targets=3, random_state=1)
>>> MultiOutputRegressor(GradientBoostingRegressor(random_state=0)).fit(X, y).predict(X)
array([[-154.75474165, -147.03498585, -50.03812219],
[ 7.12165031, 5.12914884, -81.46081961],
[-187.8948621 , -100.44373091, 13.88978285],
[-141.62745778, 95.02891072, -191.48204257],
[ 97.03260883, 165.34867495, 139.52003279],
[ 123.92529176, 21.25719016, -7.84253 ],
[-122.25193977, -85.16443186, -107.12274212],
[ -30.170388 , -94.80956739, 12.16979946],
[ 140.72667194, 176.50941682, -17.50447799],
[ 149.37967282, -81.15699552, -5.72850319]])
<强> [更新] 强>
这是一个执行多目标分类的完整代码。尝试运行它:
import numpy as np
from sklearn.ensemble import RandomForestClassifier
from sklearn.multioutput import MultiOutputClassifier
# The data from your screenshot
# A B C D E F G
train_data = np.array([
[5, 133.5, 27, 284, 638, 31, 220],
[5, 111.9, 27, 285, 702, 36, 230],
[5, 99.3, 25, 310, 713, 39, 227],
[5, 102.5, 25, 311, 670, 34, 218],
[5, 114.8, 25, 312, 685, 34, 222],
])
# These I just made up
test_data_x = np.array([
[5, 100.0],
[5, 105.2],
[5, 102.7],
[5, 103.5],
[5, 120.3],
[5, 132.5],
[5, 152.5],
])
x = train_data[:, :2]
y = train_data[:, 2:]
forest = RandomForestClassifier(n_estimators=100, random_state=1)
classifier = MultiOutputClassifier(forest, n_jobs=-1)
classifier.fit(x, y)
print classifier.predict(test_data_x)
输出(好吧,对我来说看起来合理):
[[ 25. 310. 713. 39. 227.]
[ 25. 311. 670. 34. 218.]
[ 25. 311. 670. 34. 218.]
[ 25. 311. 670. 34. 218.]
[ 25. 312. 685. 34. 222.]
[ 27. 284. 638. 31. 220.]
[ 27. 284. 638. 31. 220.]]
如果出于某种原因,这种情况无效,或者无法应用于您的情况,请更新问题。