我正在尝试使用ngrams
中的ngram
和freqDist
函数计算各种nltk
的频率。
由于ngram
函数输出是generator
对象这一事实,我想在计算频率之前合并每个ngram的输出。
但是,我遇到了合并各种生成器对象的问题。
我尝试了itertools.chain
,它创建了一个itertools
对象,而不是合并生成器。
我终于确定了permutations
,但之后解析对象似乎是多余的。
到目前为止,工作代码是:
import nltk
from nltk import word_tokenize, pos_tag
from nltk.collocations import *
from itertools import *
from nltk.util import ngrams
import re
corpus = 'testing sentences to see if if if this works'
token = word_tokenize(corpus)
unigrams = ngrams(token,1)
bigrams = ngrams(token,2)
trigrams = ngrams(token,3)
perms = list(permutations([unigrams,bigrams,trigrams]))
fdist = nltk.FreqDist(perms)
for x,y in fdist.items():
for k in x:
for v in k:
words = '_'.join(v)
print words, y
正如您在结果中看到的那样,freq dist不会正确计算各个生成器对象中的单词,因为每个对象的频率为1。 是否有更多的pythonic方法来正确地做到这一点?
答案 0 :(得分:4)
使用everygrams
,它返回给定范围为n的所有n-gram。
>>> from nltk import everygrams
>>> from nltk import FreqDist
>>> corpus = 'testing sentences to see if if if this works'
>>> everygrams(corpus.split(), 1, 3)
<generator object everygrams at 0x7f4e272e9730>
>>> list(everygrams(corpus.split(), 1, 3))
[('testing',), ('sentences',), ('to',), ('see',), ('if',), ('if',), ('if',), ('this',), ('works',), ('testing', 'sentences'), ('sentences', 'to'), ('to', 'see'), ('see', 'if'), ('if', 'if'), ('if', 'if'), ('if', 'this'), ('this', 'works'), ('testing', 'sentences', 'to'), ('sentences', 'to', 'see'), ('to', 'see', 'if'), ('see', 'if', 'if'), ('if', 'if', 'if'), ('if', 'if', 'this'), ('if', 'this', 'works')]
结合ngram的不同顺序的计数:
>>> from nltk import everygrams
>>> from nltk import FreqDist
>>> corpus = 'testing sentences to see if if if this works'.split()
>>> fd = FreqDist(everygrams(corpus, 1, 3))
>>> fd
FreqDist({('if',): 3, ('if', 'if'): 2, ('to', 'see'): 1, ('sentences', 'to', 'see'): 1, ('if', 'this'): 1, ('to', 'see', 'if'): 1, ('works',): 1, ('testing', 'sentences', 'to'): 1, ('sentences', 'to'): 1, ('sentences',): 1, ...})
或者,FreqDist
is essentially a collections.Counter
sub-class,因此您可以将计数器组合在一起:
>>> from collections import Counter
>>> x = Counter([1,2,3,4,4,5,5,5])
>>> y = Counter([1,1,1,2,2])
>>> x + y
Counter({1: 4, 2: 3, 5: 3, 4: 2, 3: 1})
>>> x
>>> from nltk import FreqDist
>>> FreqDist(['a', 'a', 'b'])
FreqDist({'a': 2, 'b': 1})
>>> a = FreqDist(['a', 'a', 'b'])
>>> b = FreqDist(['b', 'b', 'c', 'd', 'e'])
>>> a + b
FreqDist({'b': 3, 'a': 2, 'c': 1, 'e': 1, 'd': 1})
答案 1 :(得分:2)
Alvas是对的,nltk.everygrams
是完成这项工作的完美工具。但是合并几个迭代器并不是那么难,也不常见,所以你应该知道如何去做。关键是任何迭代器都可以转换为列表,但最好只做一次:
只需使用列表(简单但效率低下)
allgrams = list(unigrams) + list(bigrams) + list(trigrams)
或者正确构建一个列表
allgrams = list(unigrams)
allgrams.extend(bigrams)
allgrams.extend(trigrams)
或使用itertools.chain()
,然后制作一个列表
allgrams = list(itertools.chain(unigrams, bigrams, trigrams))
以上产生相同的结果(只要你不尝试重用迭代器unigrams
等等 - 你需要在例子之间重新定义它们。)
不要与迭代器对抗,学会与它们一起工作。许多Python函数接受它们而不是列表,为您节省了大量的空间和时间。
您可以形成一个迭代器并将其传递给nltk.FreqDist()
:
fdist = nltk.FreqDist(itertools.chain(unigrams, bigrams, trigrams))
您可以使用多个迭代器。与FreqDist
一样,Counter
有一个update()
方法可用于逐步计算内容:
fdist = nltk.FreqDist(unigrams)
fdist.update(bigrams)
fdist.update(trigrams)