pd.get_dummies是单热编码吗?

时间:2018-01-09 14:31:22

标签: python pandas scikit-learn

Given单热编码和虚拟编码之间的区别是使用默认参数时pandas.get_dummies方法的单热编码(即drop_first=False)?

如果是这样,我是否有理由从逻辑回归模型中删除拦截?这是一个例子:

# I assume I have already my dataset in a DataFrame X and the true labels in y
import pandas as pd
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split

X = pd.get_dummies(X)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = .80)

clf = LogisticRegression(fit_intercept=False)
clf.fit(X_train, y_train)

2 个答案:

答案 0 :(得分:15)

虚拟变量是每个观察值为1或0的任何变量。 pd.get_dummies应用于我们每次观察一个类别的类别列时,会为每个唯一的分类值生成一个新列(变量)。它将在列中放置一个对应于该观察的分类值。这相当于一个热门编码。

单热编码的特点是每次观察每组分类值只有一个。

考虑系列s

s = pd.Series(list('AABBCCABCDDEE'))

s

0     A
1     A
2     B
3     B
4     C
5     C
6     A
7     B
8     C
9     D
10    D
11    E
12    E
dtype: object

pd.get_dummies将生成一个热门编码。是的!不适合拦截是绝对合适的。

pd.get_dummies(s)

    A  B  C  D  E
0   1  0  0  0  0
1   1  0  0  0  0
2   0  1  0  0  0
3   0  1  0  0  0
4   0  0  1  0  0
5   0  0  1  0  0
6   1  0  0  0  0
7   0  1  0  0  0
8   0  0  1  0  0
9   0  0  0  1  0
10  0  0  0  1  0
11  0  0  0  0  1
12  0  0  0  0  1

但是,如果您s包含不同的数据并使用pd.Series.str.get_dummies

s = pd.Series('A|B,A,B,B,C|D,D|B,A,B,C,A|D'.split(','))

s

0    A|B
1      A
2      B
3      B
4    C|D
5    D|B
6      A
7      B
8      C
9    A|D
dtype: object

然后get_dummies产生的伪变量不是单热编码的,理论上你可以保留截距。

s.str.get_dummies()

   A  B  C  D
0  1  1  0  0
1  1  0  0  0
2  0  1  0  0
3  0  1  0  0
4  0  0  1  1
5  0  1  0  1
6  1  0  0  0
7  0  1  0  0
8  0  0  1  0
9  1  0  0  1

答案 1 :(得分:4)

第一个问题:是的,pd.get_dummies()是默认状态下的单热编码;请参阅下面的示例,来自pd.get_dummies docs

s = pd.Series(list('abca'))
pd.get_dummies(s, drop_first=False)

第二个问题:[现在编辑OP包含代码示例]是的,如果您对逻辑回归模型的输入进行单热编码,则跳过截距是合适的。