我已经教过一些使用Python进行文本挖掘的入门课程,并且该课程尝试了与提供的练习文本类似的方法。有些学生对text1.similar()的结果与其他学生不同。
所有版本等均相同。
有谁知道为什么会出现这些差异?感谢。
在命令行使用的代码。
python
>>> import nltk
>>> nltk.download() #here you use the pop-up window to download texts
>>> from nltk.book import *
*** Introductory Examples for the NLTK Book ***
Loading text1, ..., text9 and sent1, ..., sent9
Type the name of the text or sentence to view it.
Type: 'texts()' or 'sents()' to list the materials.
text1: Moby Dick by Herman Melville 1851
text2: Sense and Sensibility by Jane Austen 1811
text3: The Book of Genesis
text4: Inaugural Address Corpus
text5: Chat Corpus
text6: Monty Python and the Holy Grail
text7: Wall Street Journal
text8: Personals Corpus
text9: The Man Who Was Thursday by G . K . Chesterton 1908
>>>>>> text1.similar("monstrous")
mean part maddens doleful gamesome subtly uncommon careful untoward
exasperate loving passing mouldy christian few true mystifying
imperial modifies contemptible
>>> text2.similar("monstrous")
very heartily so exceedingly remarkably as vast a great amazingly
extremely good sweet
类似方法返回的那些术语列表因用户而异,它们有许多共同的词,但它们不是相同的列表。所有用户都使用相同的操作系统,以及相同版本的python和nltk。
我希望这会使问题更清楚。感谢。
答案 0 :(得分:16)
在您的示例中,还有40个其他单词与单词'monstrous'
具有恰好一个上下文。
在similar
函数中,Counter
对象用于计算具有相似上下文的单词,然后打印最常见的单词(默认为20)。由于所有40个频率相同,因此订单可能不同。
来自Counter.most_common
的{{3}}:
具有相同计数的元素是任意排序的
我用这段代码检查了相似单词的频率(基本上是功能代码相关部分的副本):
from nltk.book import *
from nltk.util import tokenwrap
from nltk.compat import Counter
word = 'monstrous'
num = 20
text1.similar(word)
wci = text1._word_context_index._word_to_contexts
if word in wci.conditions():
contexts = set(wci[word])
fd = Counter(w for w in wci.conditions() for c in wci[w]
if c in contexts and not w == word)
words = [w for w, _ in fd.most_common(num)]
# print(tokenwrap(words))
print(fd)
print(len(fd))
print(fd.most_common(num))
输出:(不同的运行为我提供不同的输出)
Counter({'doleful': 1, 'curious': 1, 'delightfully': 1, 'careful': 1, 'uncommon': 1, 'mean': 1, 'perilous': 1, 'fearless': 1, 'imperial': 1, 'christian': 1, 'trustworthy': 1, 'untoward': 1, 'maddens': 1, 'true': 1, 'contemptible': 1, 'subtly': 1, 'wise': 1, 'lamentable': 1, 'tyrannical': 1, 'puzzled': 1, 'vexatious': 1, 'part': 1, 'gamesome': 1, 'determined': 1, 'reliable': 1, 'lazy': 1, 'passing': 1, 'modifies': 1, 'few': 1, 'horrible': 1, 'candid': 1, 'exasperate': 1, 'pitiable': 1, 'abundant': 1, 'mystifying': 1, 'mouldy': 1, 'loving': 1, 'domineering': 1, 'impalpable': 1, 'singular': 1})
答案 1 :(得分:6)
简而言之:
当python3
函数使用Counter字典时,它与similar()
哈希键的关系有关。见http://pastebin.com/ysAF6p6h
请参阅How and why is the dictionary hashes different in python2 and python3?
长:
让我们从:
开始from nltk.book import *
此处的导入来自https://github.com/nltk/nltk/blob/develop/nltk/book.py,它导入nltk.text.Text
对象并将几个语料库读入Text
对象。
E.g。这是从text1
读取nltk.book
变量的方式:
>>> import nltk.corpus
>>> from nltk.text import Text
>>> moby = Text(nltk.corpus.gutenberg.words('melville-moby_dick.txt'))
现在,如果我们在https://github.com/nltk/nltk/blob/develop/nltk/text.py#L377处查看similar()
函数的代码,如果它是访问self._word_context_index
的第一个实例,我们会看到此初始化:
def similar(self, word, num=20):
"""
Distributional similarity: find other words which appear in the
same contexts as the specified word; list most similar words first.
:param word: The word used to seed the similarity search
:type word: str
:param num: The number of words to generate (default=20)
:type num: int
:seealso: ContextIndex.similar_words()
"""
if '_word_context_index' not in self.__dict__:
#print('Building word-context index...')
self._word_context_index = ContextIndex(self.tokens,
filter=lambda x:x.isalpha(),
key=lambda s:s.lower())
word = word.lower()
wci = self._word_context_index._word_to_contexts
if word in wci.conditions():
contexts = set(wci[word])
fd = Counter(w for w in wci.conditions() for c in wci[w]
if c in contexts and not w == word)
words = [w for w, _ in fd.most_common(num)]
print(tokenwrap(words))
else:
print("No matches")
因此,我们指向nltk.text.ContextIndex
对象,即假设收集具有相似上下文窗口的所有单词并存储它们。文档字符串说:
文本中单词及其“上下文”之间的双向索引。 单词的上下文通常被定义为出现在单词中的单词 一个固定的窗口围绕着这个词;但也可以使用其他定义 通过提供自定义上下文功能。
默认情况下,如果您正在调用similar()
函数,它会使用默认上下文设置(即左右标记窗口)初始化_word_context_index
,请参阅https://github.com/nltk/nltk/blob/develop/nltk/text.py#L40
@staticmethod
def _default_context(tokens, i):
"""One left token and one right token, normalized to lowercase"""
left = (tokens[i-1].lower() if i != 0 else '*START*')
right = (tokens[i+1].lower() if i != len(tokens) - 1 else '*END*')
return (left, right)
从similar()
函数中,我们看到它遍历存储在word_context_index中的上下文中的单词,即wci = self._word_context_index._word_to_contexts
。
基本上,_word_to_contexts
是一个字典,其中键是语料库中的单词,值是来自https://github.com/nltk/nltk/blob/develop/nltk/text.py#L55的左右单词:
self._word_to_contexts = CFD((self._key(w), self._context_func(tokens, i))
for i, w in enumerate(tokens))
在这里我们看到它是一个CFD,它是一个nltk.probability.ConditionalFreqDist
对象,它不包括令牌概率的平滑,请参阅https://github.com/nltk/nltk/blob/develop/nltk/probability.py#L1646的完整代码。
得到不同结果的唯一可能是similar()
函数循环遍历https://github.com/nltk/nltk/blob/develop/nltk/text.py#L402的最常见字词
鉴于Counter
对象中的两个键具有相同的计数,具有较低排序哈希的单词将首先打印出来,而键的哈希值取决于CPU的位大小,请参阅{{ 3}}
查找相似单词本身的整个过程是确定性的,因为:
Text(gutenberg.words('melville-moby_dick.txt'))
self._word_context_index
_word_context_index._word_to_contexts
的条件频率分布的计算是离散的除非函数输出most_common
列表,当Counter
值存在平局时,它会输出给定哈希值的键列表。
在python2
中,没有理由使用以下代码从同一台计算机的不同实例获取不同的输出:
$ python
>>> from nltk.book import *
>>> text1.similar('monstrous')
>>> exit()
$ python
>>> from nltk.book import *
>>> text1.similar('monstrous')
>>> exit()
$ python
>>> from nltk.book import *
>>> text1.similar('monstrous')
>>> exit()
但在Python3
中,每次运行text1.similar('monstrous')
时,它会提供不同的输出,请参阅http://www.laurentluce.com/posts/python-dictionary-implementation/
以下是一个简单的实验,可以证明python2
和python3
之间存在奇怪的散列差异:
alvas@ubi:~$ python -c "from collections import Counter; x = Counter({'foo': 1, 'bar': 1, 'foobar': 1, 'barfoo': 1}); print(x.most_common())"
[('foobar', 1), ('foo', 1), ('bar', 1), ('barfoo', 1)]
alvas@ubi:~$ python -c "from collections import Counter; x = Counter({'foo': 1, 'bar': 1, 'foobar': 1, 'barfoo': 1}); print(x.most_common())"
[('foobar', 1), ('foo', 1), ('bar', 1), ('barfoo', 1)]
alvas@ubi:~$ python -c "from collections import Counter; x = Counter({'foo': 1, 'bar': 1, 'foobar': 1, 'barfoo': 1}); print(x.most_common())"
[('foobar', 1), ('foo', 1), ('bar', 1), ('barfoo', 1)]
alvas@ubi:~$ python3 -c "from collections import Counter; x = Counter({'foo': 1, 'bar': 1, 'foobar': 1, 'barfoo': 1}); print(x.most_common())"
[('barfoo', 1), ('foobar', 1), ('bar', 1), ('foo', 1)]
alvas@ubi:~$ python3 -c "from collections import Counter; x = Counter({'foo': 1, 'bar': 1, 'foobar': 1, 'barfoo': 1}); print(x.most_common())"
[('foo', 1), ('barfoo', 1), ('bar', 1), ('foobar', 1)]
alvas@ubi:~$ python3 -c "from collections import Counter; x = Counter({'foo': 1, 'bar': 1, 'foobar': 1, 'barfoo': 1}); print(x.most_common())"
[('bar', 1), ('barfoo', 1), ('foobar', 1), ('foo', 1)]