PyMongo的批量写入操作具有生成器功能

时间:2014-10-27 03:50:08

标签: python mongodb python-2.7 pymongo bulkinsert

我想使用PyMongo的bulk 写操作功能,执行写操作 分批进行,以减少网络往返次数,提高吞吐量。

我还发现here可以使用5000作为批号。

但是,我不希望批号的最佳大小以及如何在下面的代码中将PyMongo的批量写入操作功能与生成器结合起来?

from pymongo import MongoClient
from itertools import groupby
import csv


def iter_something(rows):
    key_names = ['type', 'name', 'sub_name', 'pos', 's_type', 'x_type']
    chr_key_names = ['letter', 'no']
    for keys, group in groupby(rows, lambda row: row[:6]):
        result = dict(zip(key_names, keys))
        result['chr'] = [dict(zip(chr_key_names, row[6:])) for row in group]
        yield result


def main():
    converters = [str, str, str, int, int, int, str, int]
    with open("/home/mic/tmp/test.txt") as c:
    reader = csv.reader(c, skipinitialspace=True)
    converted = ([conv(col) for conv, col in zip(converters, row)] for row in reader)
    for object_ in iter_something(converted):
        print(object_)


if __name__ == '__main__':
    db = MongoClient().test
    sDB = db.snps 
    main()

test.txt文件:

  Test, A, B01, 828288,  1,    7, C, 5
  Test, A, B01, 828288,  1,    7, T, 6
  Test, A, B01, 171878,  3,    7, C, 5
  Test, A, B01, 171878,  3,    7, T, 6
  Test, A, B01, 871963,  3,    9, A, 5
  Test, A, B01, 871963,  3,    9, G, 6
  Test, A, B01, 1932523, 1,   10, T, 4
  Test, A, B01, 1932523, 1,   10, A, 5
  Test, A, B01, 1932523, 1,   10, X, 6
  Test, A, B01, 667214,  1,   14, T, 4
  Test, A, B01, 667214,  1,   14, G, 5
  Test, A, B01, 67214,   1,   14, G, 6      

2 个答案:

答案 0 :(得分:5)

您可以这样做:

sDB.insert(iter_something(converted))

PyMongo将做正确的事情:迭代您的生成器,直到它已经生成1000个文档或16MB数据,然后在将批处理插入MongoDB时暂停生成器。插入批处理后,PyMongo将恢复您的生成器以创建下一批,并继续直到插入所有文档。然后insert()返回插入的文档ID的列表。

this commit中向PyMongo添加了对生成器的初始支持,从那时起我们就一直保持对文档生成器的支持。

答案 1 :(得分:1)

因此,您有一个文档生成器,并且您希望将其拆分为块或文档组。这可以使用this answer中描述的grouper生成器来完成。

然后,对于每组文档,使用pymongo的insert批量插入它们。

你得到:

def main():
    db = MongoClient().test
    sDB = db.snps 
    ...
    for docs_group in grouper(iter_something(converted), BULK_SIZE):
        docs_group = [ doc for doc in docs_group if doc is not None ]  # filter out Nones
        sDB.insert(docs_group, ...)

关于最佳BULK_SIZE,取决于各种因素,例如:典型的文档大小,网络滞后等。您需要进行实验。