目前,我使用以下代码使用spaCy对某些文本数据的TF-IDF值进行词典化和计算:
lemma = []
for doc in nlp.pipe(df['col'].astype('unicode').values, batch_size=9844,
n_threads=3):
if doc.is_parsed:
lemma.append([n.lemma_ for n in doc if not n.lemma_.is_punct | n.lemma_ != "-PRON-"])
else:
lemma.append(None)
df['lemma_col'] = lemma
vect = sklearn.feature_extraction.text.TfidfVectorizer()
lemmas = df['lemma_col'].apply(lambda x: ' '.join(x))
vect = sklearn.feature_extraction.text.TfidfVectorizer()
features = vect.fit_transform(lemmas)
feature_names = vect.get_feature_names()
dense = features.todense()
denselist = dense.tolist()
df = pd.DataFrame(denselist, columns=feature_names)
df = pd.DataFrame(denselist, columns=feature_names)
lemmas = pd.concat([lemmas, df])
df= pd.concat([df, lemmas])
我需要删除专有名词,标点符号和停止单词,但在我当前的代码中执行此操作时遇到了一些麻烦。我已经阅读了一些documentation和other resources,但现在遇到了错误:
---------------------------------------------------------------------------
AttributeError Traceback (most recent call last)
<ipython-input-21-e924639f7822> in <module>()
7 if doc.is_parsed:
8 tokens.append([n.text for n in doc])
----> 9 lemma.append([n.lemma_ for n in doc if not n.lemma_.is_punct or n.lemma_ != "-PRON-"])
10 pos.append([n.pos_ for n in doc])
11 else:
<ipython-input-21-e924639f7822> in <listcomp>(.0)
7 if doc.is_parsed:
8 tokens.append([n.text for n in doc])
----> 9 lemma.append([n.lemma_ for n in doc if not n.lemma_.is_punct or n.lemma_ != "-PRON-"])
10 pos.append([n.pos_ for n in doc])
11 else:
AttributeError: 'str' object has no attribute 'is_punct'
是否有更简单的方法可以从文本中删除这些内容,而无需彻底改变我的方法?
完整代码here。
答案 0 :(得分:5)
从我所看到的,你的主要问题实际上非常简单:n.lemma_
返回一个字符串,而不是Token
个对象。所以它没有is_punct
属性。我认为你在这里寻找的是n.is_punct
(令牌是否是标点符号)。
如果你想更优雅地做到这一点,请查看spaCy的新custom processing pipeline components(需要v2.0 +)。这使您可以将逻辑包装在一个函数中,当您在文本上调用nlp()
时,该函数会自动运行。您甚至可以更进一步,并向Doc
添加custom attribute - 例如,doc._.my_stripped_doc
或doc._.pd_columns
或其他内容。这样做的好处是,您可以继续使用spaCy的高性能内置数据结构,如Doc
(及其视图Token
和Span
)作为&#34;单一的事实来源&#34;你的申请。这样,不会丢失任何信息,并且您始终会保留对原始文档的引用 - 这对于调试也非常有用。
答案 1 :(得分:1)
当您使用 spacy 时,请使用此功能删除标点符号。
df["newcolname"] = df.column name(onwhich yoy want to remove stopword).apply(lambda text:
" ".join(token.lemma_ for token in nlp(text)
if not token.is_punct)
df["puncfree"] = df.review.apply(lambda text:
" ".join(token.lemma_ for token in nlp(text)
if not token.is_punct))
为了说服和更好地理解,我发布了我用来删除标点符号的代码
“review”是我想从中删除标点符号的列名。