为什么NLTK在Python中处理起来如此复杂?

时间:2019-05-24 09:10:20

标签: nltk

在我的新手尝试建立全文本挖掘分析(包括令牌化,词形化等)的过程中,我不断碰壁。令牌化需要语料库,但是我的Windows计算机报告通过nltk Web导入语料库时出错。尝试直接从PyCharm导入语料库(nltk本身不是问题),但是代码没有合作……类似地,当尝试进行词法化代码行时,同样的事情……需要语料库……嗯。茎梗需要搬运工。也不是问题。谁能提供一个有用的答案,甚至我的两个问题? -提前,谢谢您的支持...; o)-projectfreak 这张票证中有一个关于语料库问题的特定问题: Issues tokenizing text

不适用

import textblob
from textblob import ngrams

TextBlob(train['tweet'][0]).ngrams(2)

print("\nPRINT N-GRAMS")

print(train['tweet'].head(25))

运行代码的结果:

Traceback (most recent call last):
PRINT STEMMING ANALYSIS
  File "C:/Users/jcst/PycharmProjects/TextMining/ModuleImportAndTrainFileIntro.py", line 179, in <module>
from textblob import ngrams
ImportError: cannot import name 'ngrams' from 'textblob'     (C:\Users\jcst\PycharmProjects\TextMining\venv\lib\site-packages\textblob\__init__.py)

0 个答案:

没有答案