无法从nltk包中使用word.tokenize()functionc

时间:2016-02-08 10:37:03

标签: python nltk

无法从nltk包中调用word_tokenize()。即使我在终端

中执行了以下步骤
>>python
>>import nltk
>>nltk.download('all')

以下是标记化的简单代码

import nltk
sentence = """At eight o'clock on Thursday morning. Arthur didn't feel very good."""
tokens = nltk.word_tokenize(sentence)
tokens

但是在spyder控制台中显示

import nltk
File "nltk.py", line 3, in <module>
tokens = nltk.word_tokenize(sentence)
AttributeError: 'module' object has no attribute 'word_tokenize'
>>> 

1 个答案:

答案 0 :(得分:2)

看起来您已将脚本命名为nltk.py,因此您的代码正在导入自身,而不是您期望的nltk模块。

尝试更改脚本以使用其他名称。