在sklearn管道中使用make_column_transformer()时,尝试使用CountVectorizer时遇到错误。
我的DataFrame有两列,'desc-title'
和'SPchangeHigh'
。
这是两行的代码段:
features = pd.DataFrame([["T. Rowe Price sells most of its Tesla shares", .002152],
["Gannett to retain all seats in MNG proxy fight", 0.002152]],
columns=["desc-title", "SPchangeHigh"])
我能够毫无问题地运行以下管道:
preprocess = make_column_transformer(
(StandardScaler(),['SPchangeHigh']),
( OneHotEncoder(),['desc-title'])
)
preprocess.fit_transform(features.head(2))
但是,当我用 CountVectorizer(tokenizer = tokenize)替换 OneHotEncoder()时,它将失败:
preprocess = make_column_transformer(
(StandardScaler(),['SPchangeHigh']),
( CountVectorizer(tokenizer=tokenize),['desc-title'])
)
preprocess.fit_transform(features.head(2))
我得到的错误是:
ValueError Traceback (most recent call last)
<ipython-input-71-d77f136b9586> in <module>()
3 ( CountVectorizer(tokenizer=tokenize),['desc-title'])
4 )
----> 5 preprocess.fit_transform(features.head(2))
C:\anaconda3\lib\site-packages\sklearn\compose\_column_transformer.py in fit_transform(self, X, y)
488 self._validate_output(Xs)
489
--> 490 return self._hstack(list(Xs))
491
492 def transform(self, X):
C:\anaconda3\lib\site-packages\sklearn\compose\_column_transformer.py in _hstack(self, Xs)
545 else:
546 Xs = [f.toarray() if sparse.issparse(f) else f for f in Xs]
--> 547 return np.hstack(Xs)
548
549
C:\anaconda3\lib\site-packages\numpy\core\shape_base.py in hstack(tup)
338 return _nx.concatenate(arrs, 0)
339 else:
--> 340 return _nx.concatenate(arrs, 1)
341
342
ValueError: all the input array dimensions except for the concatenation axis must match exactly
如果有人能帮助我,我会感激不尽。
答案 0 :(得分:0)
去掉“ desc-title”周围的括号。您需要一维数组,而不是列向量。
[a-zA-Z_0-9]
Sklearn documentation describes this nuanced specification:
将列选择器指定为“ column”(如 一个简单的字符串)和['column'](作为带有一个元素的列表)是 传递给转换器的数组的形状。在第一 情况下,将传递一维数组,而在第二种情况下 它是一个二维数组,其中只有一列,即一列 向量
...
请注意,某些变压器需要一维输入( 面向标签的标签),而其他一些标签(例如OneHotEncoder或Imputer) 期望二维输入,其形状为[n_samples,n_features]。