芹菜和芹菜的问题Redis后端

时间:2012-02-08 16:38:22

标签: python django redis celery django-celery

我目前正在设置一个使用带有redis的芹菜的系统 后端做一堆异步任务,比如发送电子邮件, 拉动社交数据,抓取等等。一切都很好,但我 我正在小组弄清楚如何监控系统(也就是数字 排队消息)。我开始浏览芹菜来源但是 我想我会在这里发布我的问题: 首先,这是我的配置:

BROKER_BACKEND                  = "redis" 
BROKER_HOST                     = "localhost" 
BROKER_PORT                     = 6379 
BROKER_VHOST                    = "1" 
REDIS_CONNECT_RETRY     = True 
REDIS_HOST                              = "localhost" 
REDIS_PORT                              = 6379 
REDIS_DB                                = "0" 
CELERY_SEND_EVENTS                      = True 
CELERYD_LOG_LEVEL               = 'INFO' 
CELERY_RESULT_BACKEND           = "redis" 
CELERY_TASK_RESULT_EXPIRES      = 25 
CELERYD_CONCURRENCY             = 8 
CELERYD_MAX_TASKS_PER_CHILD = 10 
CELERY_ALWAYS_EAGER                     =True

我要做的第一件事是监控有多少邮件 我的队列。我认为,在幕后,redis后端只是 从列表中推送/弹出,虽然我似乎无法找到它 代码。所以我模拟了一个模拟,我开始大约100个任务和 我试图在redis中找到它们: 我的芹菜是这样运行的: python manage.py celeryd -c 4 --loglevel = DEBUG -n XXXXX --logfile = logs / celery.log 所以我应该一次只有4个并发工人..... 有两点我不明白: 问题1: 在排队完100个任务后,在redis上查找它们,我只是 请参阅以下内容:

$ redis-cli 
redis 127.0.0.1:6379> keys * 
1) "_kombu.binding.celery" 
redis 127.0.0.1:6379> select 1 
OK 
redis 127.0.0.1:6379[1]> keys * 
1) "_kombu.binding.celery" 
2) "_kombu.binding.celeryd.pidbox" 
redis 127.0.0.1:6379[1]>

我似乎找不到任务来获得多少排队的任务 (从技术上讲,96应该是因为我只支持4个并发任务)

问题2

$ ps aux | grep celeryd | cut -c 13-120 
 41258   0.2  0.2  2526232   9440 s004  S+    2:27PM   0:07.35 python 
manage.py celeryd -c 4 --loglevel=DEBU 
 41261   0.0  0.1  2458320   2468 s004  S+    2:27PM   0:00.09 python 
manage.py celeryd -c 4 --loglevel=DEBU 
 38457   0.0  0.8  2559848  34672 s004  T    12:34PM   0:18.59 python 
manage.py celeryd -c 4 --loglevel=INFO 
 38449   0.0  0.9  2517244  36752 s004  T    12:34PM   0:35.72 python 
manage.py celeryd -c 4 --loglevel=INFO 
 38443   0.0  0.2  2524136   6456 s004  T    12:34PM   0:10.15 python 
manage.py celeryd -c 4 --loglevel=INFO 
 84542   0.0  0.0  2460112      4 s000  T    27Jan12   0:00.74 python 
manage.py celeryd -c 4 --loglevel=INFO 
 84536   0.0  0.0  2506728      4 s000  T    27Jan12   0:00.51 python 
manage.py celeryd -c 4 --loglevel=INFO 
 41485   0.0  0.0  2435120    564 s000  S+    2:54PM   0:00.00 grep 
celeryd 
 41264   0.0  0.1  2458320   2480 s004  S+    2:27PM   0:00.09 python 
manage.py celeryd -c 4 --loglevel=DEBU 
 41263   0.0  0.1  2458320   2480 s004  S+    2:27PM   0:00.09 python 
manage.py celeryd -c 4 --loglevel=DEBU 
 41262   0.0  0.1  2458320   2480 s004  S+    2:27PM   0:00.09 python 
manage.py celeryd -c 4 --loglevel=DEBU 

如果有人能为我解释这一点,那就太好了。

2 个答案:

答案 0 :(得分:9)

您的配置有CELERY_ALWAYS_EAGER = True。这意味着任务在本地运行,因此您不会在Redis中看到它们。来自文档:http://celery.readthedocs.org/en/latest/configuration.html#celery-always-eager

  

CELERY_ALWAYS_EAGER

     

如果为True,则执行所有任务   在本地通过阻塞直到任务返回。 apply_async()和   Task.delay()将返回一个EagerResult实例,该实例模拟   AsyncResult的API和行为,但结果已经存在   评价。

     

也就是说,任务将在本地执行而不是发送给   队列中。

答案 1 :(得分:1)

从未使用过Celery,但是如果你想知道它在做什么,其中一种方法是使用redis-cli连接到Redis实例,然后运行monitor命令。这将转储针对Redis数据库执行的所有命令。您将能够确切地看到发生了什么。