如何统计包含特定单词的文件?

时间:2014-04-01 12:33:43

标签: python dictionary counter frequency tf-idf

假设我有这样的字典:

docDict = {"alpha": ["a", "b", "c", "a", "b"], "bravo": ["b", "c", "d", "c", "d"]}

我想要做的就像计算"文档频率":假设每个字典项目都是一个文档,我有一个特定的单词,那么有多少文档包含该单词?

我看过很多帖子告诉我如何计算频率,但是如果"a"在文档"alpha"中出现两次,我只需要计数为1.所以&#34 ;频率" "a"应为1,而"c"应为2。

我知道我可以迭代整个文档字典,并在文档中找到单词时添加计数器。或者我可以首先使每个文档中的单词都是唯一的,然后合并所有文档并计算单词。

但我认为这是一种更好的方式,一种更有效的方法。有什么想法吗?

顺便说一下,有什么方法可以保持字典的结构吗?在此示例中,我想获得{"alpha": {'c': 2, 'b': 2, 'a': 1}, "bravo": {'c': 2, 'b': 2, 'd': 1}

的结果

更新

如果在这里我只有一个列表(类似[["a", "b", "c", "a", "b"], ["b", "c", "d", "c", "d"]]),我怎样才能得到像[[1, 2, 2, 0], [0, 2, 2, 1]]这样的结果列表。

我不知道。关键是要扩展每个列表并确保术语的顺序。想法?

4 个答案:

答案 0 :(得分:6)

我会使用collections.Counterset继续你的第二种方式。

>>> from collections import Counter
>>> sum((Counter(set(x)) for x in docDict.itervalues()), Counter())
Counter({'c': 2, 'b': 2, 'a': 1, 'd': 1})

更新1:

>>> c = sum((Counter(set(x)) for x in docDict.itervalues()), Counter())
>>> {k: {k1:c[k1] for k1 in set(v)} for k, v in docDict.iteritems()}
{'alpha': {'a': 1, 'c': 2, 'b': 2}, 'bravo': {'c': 2, 'b': 2, 'd': 1}}

更新2:

如果需要考虑表现,请不要将Countersum一起使用,这是另一种方法。请注意,与@ user2931409不同,我不会在内存中保留一组单词来获取它们的长度,所以这更像是内存效率,但比它们的答案稍慢。

result = Counter()
for v in docDict.itervalues():
    result.update(set(v))
return result

时间比较:

def func1():
    #http://stackoverflow.com/a/22787509/846892
    result = defaultdict(set)
    for k, vlist in docDict.items():
        for v in vlist:
            result[v].add(k)
    return dict(zip(result.keys(), map(lambda x:len(x), result.values())))

def func2():

    result = Counter()
    for v in docDict.itervalues():
        result.update(set(v))
    return result

In [94]: docDict = {''.join(random.choice(lis) for _ in xrange(8)): random.sample(lis, 25)
    ...:   for _ in xrange(70000)}

In [95]: %timeit func1(docDict)
1 loops, best of 3: 380 ms per loop

In [96]: %timeit func2(docDict)
1 loops, best of 3: 591 ms per loop

In [97]: docDict = {''.join(random.choice(lis) for _ in xrange(8)): random.sample(lis, 25)
    ...:   for _ in xrange(10**5)}

In [98]: %timeit func1(docDict)
1 loops, best of 3: 529 ms per loop

In [99]: %timeit func2(docDict)
1 loops, best of 3: 848 ms per loop

In [101]: func1(docDict) == func2(docDict)
Out[101]: True

答案 1 :(得分:2)

这不是特别的,非常普通的方式。

from collections import defaultdict

docDict = {"alpha": ["a", "b", "c", "a", "b"], "bravo": ["b", "c", "d", "c", "d"]}
result = defaultdict(set)

for k, vlist in docDict.items():
    for v in vlist:
        result[v].add(k)

#Now the result looks like this.
#{'a': set(['alpha']), 'c': set(['alpha', 'bravo']), 'b': set(['alpha', 'bravo']), 'd': set(['bravo'])})

print dict(zip(result.keys(), map(lambda x:len(x), result.values())))
#{'a': 1, 'c': 2, 'b': 2, 'd': 1}

<强>更新

另一种方式......只是数数。并改为使用迭代器。所以它比上面的代码更快。

from collections import defaultdict
def func3(docDict):
    result = defaultdict(int)
    for vlist in docDict.itervalues():
        for i in set(vlist):
            result[i] += 1
    return dict(result)

答案 2 :(得分:1)

docDict = {"alpha": ["a", "b", "c", "a", "b"], "bravo": ["b", "c", "d", "c", "d"]}
revDict = {v : sum(1 for l in docDict.values() if v in l)  
        for v in set(x for y in docDict.values() for x in y) }
print revDict

给出:

{'a': 1, 'c': 2, 'b': 2, 'd': 1}

答案 3 :(得分:1)

您可以使用set来统一单个文档中的字符。然后只需Counter()他们。

from collections import Counter

docDict = {"alpha": ["a", "b", "c", "a", "b"], "bravo": ["b", "c", "d", "c", "d"]}

result = reduce(lambda x, y: x + Counter(set(y)), docDict.itervalues(), Counter([]))