我在CountVectorizer
的某些文档中添加了scikit-learn
。我想在文本语料库中看到所有术语及其相应的频率,以便选择停用词。例如
'and' 123 times, 'to' 100 times, 'for' 90 times, ... and so on
这有内置功能吗?
答案 0 :(得分:22)
如果cv
是CountVectorizer
而X
是矢量化语料库,那么
zip(cv.get_feature_names(),
np.asarray(X.sum(axis=0)).ravel())
为(term, frequency)
提取的语料库中的每个不同字词返回CountVectorizer
对的列表。
(需要asarray
+ ravel
小舞蹈来解决scipy.sparse
中的一些怪癖。)
答案 1 :(得分:3)
没有内置功能。我找到了一种基于Ando Saabas's answer更快的方法:
from sklearn.feature_extraction.text import CountVectorizer
texts = ["Hello world", "Python makes a better world"]
vec = CountVectorizer().fit(texts)
bag_of_words = vec.transform(texts)
sum_words = bag_of_words.sum(axis=0)
words_freq = [(word, sum_words[0, idx]) for word, idx in vec.vocabulary_.items()]
sorted(words_freq, key = lambda x: x[1], reverse=True)
<强>输出强>
[('world', 2), ('python', 1), ('hello', 1), ('better', 1), ('makes', 1)]