我正在尝试运行hstack将一列整数值连接到由TF-IDF创建的列列表(因此我最终可以在分类器中使用所有这些列/功能)。
我正在使用pandas在列中读取,检查任何NA值并将它们转换为数据帧中的最大值,如下所示:
OtherColumn = p.read_csv('file.csv', delimiter=";", na_values=['?'])[["OtherColumn"]]
OtherColumn = OtherColumn.fillna(OtherColumn.max())
OtherColumn = OtherColumn.convert_objects(convert_numeric=True)
然后我在我的文本列中读取并运行TF-IDF来创建大量功能:
X = list(np.array(p.read_csv('file.csv', delimiter=";"))[:,2])
tfv = TfidfVectorizer(min_df=3, max_features=None, strip_accents='unicode',
analyzer='word',token_pattern=r'\w{1,}',ngram_range=(1, 2), use_idf=1,smooth_idf=1,sublinear_tf=1)
tfv.fit(X)
最后,我想将它们加在一起,这就是我们发生错误并且程序无法运行的地方,而且我不确定我是否在这里正确使用StandardScaler:
X = sp.sparse.hstack((X, OtherColumn.values)) #error here
sc = preprocessing.StandardScaler().fit(X)
X = sc.transform(X)
X_test = sc.transform(X_test)
完整的错误消息:
---------------------------------------------------------------------------
TypeError Traceback (most recent call last)
<ipython-input-13-79d1e70bc1bc> in <module>()
---> 47 X = sp.sparse.hstack((X, OtherColumn.values))
48 sc = preprocessing.StandardScaler().fit(X)
49 X = sc.transform(X)
C:\Users\Simon\Anaconda\lib\site-packages\scipy\sparse\construct.pyc in hstack(blocks, format, dtype)
421
422 """
--> 423 return bmat([blocks], format=format, dtype=dtype)
424
425
C:\Users\Simon\Anaconda\lib\site-packages\scipy\sparse\construct.pyc in bmat(blocks, format, dtype)
537 nnz = sum([A.nnz for A in blocks[block_mask]])
538 if dtype is None:
--> 539 dtype = upcast(*tuple([A.dtype for A in blocks[block_mask]]))
540
541 row_offsets = np.concatenate(([0], np.cumsum(brow_lengths)))
C:\Users\Simon\Anaconda\lib\site-packages\scipy\sparse\sputils.pyc in upcast(*args)
58 return t
59
---> 60 raise TypeError('no supported conversion for types: %r' % (args,))
61
62
TypeError: no supported conversion for types: (dtype('float64'), dtype('O'))
答案 0 :(得分:8)
如Numpy hstack - "ValueError: all the input arrays must have same number of dimensions" - but they do中所述,您需要明确地将输入转换为sparse.hstack
。 sparse
代码不如核心numpy
代码强大。
如果X
是包含dtype=float
的稀疏数组,并且A
与dtype=object
密集,则可能有多种选项。
sparse.hstack(X, A) # error
sparse.hstack(X.astype(object), A) # cast X to object; return object
sparse.hstack(X, A.astype(float)) # cast A to float; return float
hstack(X.A, A) # make X dense, result will be type object
如果A.astype(float)
包含一些A
, NaN
将有效。有关NaN,请参阅http://pandas.pydata.org/pandas-docs/stable/gotchas.html。如果A
由于某些其他原因(例如参差不齐的列表)而成为对象,那么我们将不得不重新审视该问题。
另一种可能性是使用Pandas的concat
。 http://pandas.pydata.org/pandas-docs/stable/merging.html。我认为Pandas比sparse
编码员更关注这些问题。