线性回归:用数值1代替预测器的非数值离散域

时间:2013-10-22 08:33:53

标签: machine-learning supervised-learning

所以我有一个训练集,其中一个属性的域如下:

A = {Type1, Type2, Type3, ... ,Type5}

如果域保持该形式,我不能应用线性回归,因为数学假设可能无法工作,例如:

H = TxA + T1xB + T2xC + ...

(即如果我们假设所有属性都是数字,除了A属性,那么就不能将实值参数与类型相乘)

我可以用数字,等效,离散值替换域,这样我可以针对这个问题进行线性回归并且没问题吗?

A = {1, 2, 3, ...., 5 )

这是最佳做法吗?如果没有,你可以在这些情况下给我一个替代方案吗?

2 个答案:

答案 0 :(得分:5)

最佳做法是进行一次热(一个 K )编码:对于A可以采用的每个值,定义一个单独的指标功能。因此,对于五种“类型”,A = type1将是

[1, 0, 0, 0, 0]

A = type3

[0, 0, 1, 0, 0]

然后将这些向量与您的其他特征连接起来,以便您的假设成为

H = w[Atype1] * [A=type1] + ... + w[Atype5] * [A=type5] + w[B] * B + ...

使用[]表示指标功能。

这避免了您的方法的主要问题,即您引入了许多(可能是不正确的)偏见,例如: type5 = type2 + type3。为了进一步直观,为什么这比编码更好,请参阅this answer of mine

答案 1 :(得分:0)

通常这不起作用,因为通常标称属性的平均值没有意义。例如,如果你指定Apple = 1,Banana = 2,Orange = 3,那么在模型Banana中将显示为Apple和Orange的平均值。对于分类任务,考虑使用感知器,神经网络(使用Winner-take-all范例消除名义属性之间的平均值的问题),决策树或我忘记提及的一些其他工具。正如larsmans正确指出的那样,您的案例的典型模型是Logistic Regression

可能您也可以使用WTA范例进行线性回归 - 为每个输出向量维度构建回归模型。

澄清:WTA与larsmans's answer中的单热相同。