我有两种任务: Type1 - 一些高优先级的小任务。 Type2 - 优先级较低的繁重任务。
最初,我使用默认路由进行简单配置,但未使用路由密钥。这还不够 - 有时候所有工作人员都在忙于Type2任务,所以Task1被推迟了。 我添加了路由键:
CELERY_DEFAULT_QUEUE = "default"
CELERY_QUEUES = {
"default": {
"binding_key": "task.#",
},
"highs": {
"binding_key": "starter.#",
},
}
CELERY_DEFAULT_EXCHANGE = "tasks"
CELERY_DEFAULT_EXCHANGE_TYPE = "topic"
CELERY_DEFAULT_ROUTING_KEY = "task.default"
CELERY_ROUTES = {
"search.starter.start": {
"queue": "highs",
"routing_key": "starter.starter",
},
}
所以现在我有2个队列 - 具有高优先级和低优先级的任务。
问题 - 如何使用不同的并发设置启动2 celeryd?
以前芹菜在守护进程模式下使用(根据to this),因此只需要/etc/init.d/celeryd start
的开始,但现在我必须运行具有不同队列和并发性的2个不同的芹菜。我该怎么办?
答案 0 :(得分:34)
根据上面的答案,我制定了以下/ etc / default / celeryd文件(最初基于此处文档中描述的配置:http://ask.github.com/celery/cookbook/daemonizing.html),该文件适用于在同一台机器上运行两个芹菜工人,每个工作服务于不同的队列(在这种情况下,队列名称是“默认”和“重要”)。
基本上这个答案只是前一个答案的扩展,因为它简单地说明了如何做同样的事情,但是对于ceemon模式中的celery。请注意,我们在这里使用django-celery:
CELERYD_NODES="w1 w2"
# Where to chdir at start.
CELERYD_CHDIR="/home/peedee/projects/myproject/myproject"
# Python interpreter from environment.
#ENV_PYTHON="$CELERYD_CHDIR/env/bin/python"
ENV_PYTHON="/home/peedee/projects/myproject/myproject-env/bin/python"
# How to call "manage.py celeryd_multi"
CELERYD_MULTI="$ENV_PYTHON $CELERYD_CHDIR/manage.py celeryd_multi"
# How to call "manage.py celeryctl"
CELERYCTL="$ENV_PYTHON $CELERYD_CHDIR/manage.py celeryctl"
# Extra arguments to celeryd
# Longest task: 10 hrs (as of writing this, the UpdateQuanitites task takes 5.5 hrs)
CELERYD_OPTS="-Q:w1 default -c:w1 2 -Q:w2 important -c:w2 2 --time-limit=36000 -E"
# Name of the celery config module.
CELERY_CONFIG_MODULE="celeryconfig"
# %n will be replaced with the nodename.
CELERYD_LOG_FILE="/var/log/celery/celeryd.log"
CELERYD_PID_FILE="/var/run/celery/%n.pid"
# Name of the projects settings module.
export DJANGO_SETTINGS_MODULE="settings"
# celerycam configuration
CELERYEV_CAM="djcelery.snapshot.Camera"
CELERYEV="$ENV_PYTHON $CELERYD_CHDIR/manage.py celerycam"
CELERYEV_LOG_FILE="/var/log/celery/celerycam.log"
# Where to chdir at start.
CELERYBEAT_CHDIR="/home/peedee/projects/cottonon/cottonon"
# Path to celerybeat
CELERYBEAT="$ENV_PYTHON $CELERYBEAT_CHDIR/manage.py celerybeat"
# Extra arguments to celerybeat. This is a file that will get
# created for scheduled tasks. It's generated automatically
# when Celerybeat starts.
CELERYBEAT_OPTS="--schedule=/var/run/celerybeat-schedule"
# Log level. Can be one of DEBUG, INFO, WARNING, ERROR or CRITICAL.
CELERYBEAT_LOG_LEVEL="INFO"
# Log file locations
CELERYBEAT_LOGFILE="/var/log/celerybeat.log"
CELERYBEAT_PIDFILE="/var/run/celerybeat.pid"
答案 1 :(得分:32)
似乎答案 - 芹菜多 - 目前没有很好地记录。
我需要的是通过以下命令完成的:
celeryd-multi start 2 -Q:1 default -Q:2 starters -c:1 5 -c:2 3 --loglevel=INFO --pidfile=/var/run/celery/${USER}%n.pid --logfile=/var/log/celeryd.${USER}%n.log
我们做的是启动2个工作人员,他们正在收听不同的队列(-Q:1是默认值,Q:2是启动者),具有不同的并发-c:1 5 -c:2 3
答案 2 :(得分:11)
另一种方法是使用-n
参数为工作进程指定一个唯一的名称。
我有两个Pyramid应用程序在同一个物理硬件上运行,每个应用程序都有自己的celery实例(在他们自己的virtualenvs中)。
他们都有Supervisor控制他们两个,都有一个独特的supervisord.conf文件。
APP1:
[program:celery]
autorestart=true
command=%(here)s/../bin/celery worker -n ${HOST}.app1--app=app1.queue -l debug
directory=%(here)s
[2013-12-27 10:36:24,084: WARNING/MainProcess] celery@maz.local.app1 ready.
APP2:
[program:celery]
autorestart=true
command=%(here)s/../bin/celery worker -n ${HOST}.app2 --app=app2.queue -l debug
directory=%(here)s
[2013-12-27 10:35:20,037: WARNING/MainProcess] celery@maz.local.app2 ready.
答案 3 :(得分:0)
更新:
在Celery 4.x中,以下将正常工作:
celery multi start 2 -Q:1 celery -Q:2 starters -A $proj_name
或者,如果您想指定实例的名称,则可以:
celery multi start name1 name2 -Q:name1 celery -Q:name2 queue_name -A $proj_name
但是,我发现如果使用celery multi
,它将无法在屏幕上显示详细日志,因为似乎只有脚本快捷方式才能启动这些实例。
我猜想,如果我们通过手动给这些实例指定不同的节点名称,但-A
使用相同的$proj_name
来手动启动这些实例也是可行的,尽管这是在浪费时间。
顺便说一句,根据official document,您可以通过以下方式杀死所有芹菜工人:
ps auxww | grep 'celery worker' | awk '{print $2}' | xargs kill -9