如何使用celery使用mongoengine将数据插入mongodb

时间:2014-10-09 06:31:32

标签: python mongodb concurrency celery celery-task

我试图用celery在我的mongodb中插入大数据,但问题是mongodb中的并发性。如果我一次发送多个任务到芹菜部分数据将插入mongodb而其他一些数据则不会。我认为这是因为mongodb在插入操作上锁定了数据库,但是我需要一个能够发送多个相同类型的任务来在数据库中插入数据的解决方案。就像检查数据库是否等待它解锁一样。这是我的代码的一部分:

@celery.task(name='celery_tasks.add_book_product')
def add_book_product(product_dict, store_id):

    connect(DefaultConfig.MONGODB_DB, host=DefaultConfig.MONGODB_HOST)

    store_obj = Store.objects.get(pk=store_id)

    try:
        book = Books.objects.get(pk=product_dict['RawBook'])

        try:
            product_obj = Product.objects.get(store=store_obj, related_book=book, kind='book')
            print("Product {} found for store {}".format(product_obj.id, store_obj.id))
            product_obj.count = int(product_dict['count'])
            product_obj.buy_price = int(product_dict['buy_book'])
            product_obj.sell_price = int(product_dict['sell_book'])

            product_obj.save()

        except (DoesNotExist, ValidationError):
            product_obj = Product(store=store_obj,
                                  related_book=book,
                                  kind='book',
                                  count=int(product_dict['count']),
                                  buy_price=int(product_dict['buy_book']),
                                  sell_price=int(product_dict['sell_book']),
                                  name=book.name_fa)

            product_obj.save()

            print("Appending books to store obj...")
            store_obj.products.append(product_obj)
            store_obj.save()
            print("Appending books to store obj done")

        return "Product {} saved for store {}".format(product_obj.id, store_obj.id)
    except (DoesNotExist, ValidationError):
        traceback.print_exc()
        return "Product with raw book {} does not exist.".format(product_dict['RawBook'])

1 个答案:

答案 0 :(得分:2)

默认情况下,多处理用于在芹菜中执行任务的并发执行。但是有两种方法可以确保在任何给定时间只执行一个任务。

解决方案1:

当你用

开始一个芹菜工人
celery -A your_app worker -l info

默认并发性等于您的计算机拥有的核心数。所以,如果你开始这样的工人

celery -A your_app worker -l info -c 1

它在任何给定时间只运行一个任务。如果您还有其他一些必须执行的任务,您可以启动一个新队列并指派一个工作人员来执行它。

解决方案2:

这有点复杂。你需要在你的任务中使用一个锁,就像这样。

if acquire_lock():
    try:
        #do something
    finally:
        release_lock()
    return 

您可以在Celery documentation中了解详情。