from celery import Celery
app = Celery('tasks', backend='amqp://guest@localhost//', broker='amqp://guest@localhost//')
a_num = 0
@app.task
def addone():
global a_num
a_num = a_num + 1
return a_num
这是我用来测试芹菜的代码。 我希望每次使用addone()时返回值都应该增加。 但它始终是1 为什么???
结果
python
>> from tasks import addone
>> r = addone.delay()
>> r.get()
1
>> r = addone.delay()
>> r.get()
1
>> r = addone.delay()
>> r.get()
1
答案 0 :(得分:14)
默认情况下,当工作程序启动时,Celery以并发4启动它,这意味着它有4个进程开始处理任务请求。 (加上一个控制其他进程的进程。)我不知道使用什么算法将任务请求分配给为工作者启动的进程,但最终,如果你执行addone.delay().get()
,你会看到这个数字大于1.发生的是每个进程(不是每个任务)获得自己的a_num
副本。当我在这里尝试时,我第五次执行addone.delay().get()
会返回2
。
您可以通过使用单个进程启动工作程序来强制每次增加数字来处理请求。 (例如celery -A tasks worker -c1
)但是,如果您重新启动工作程序,编号将重置为0.此外,我不会设计仅在处理请求的进程数被强制为1时才有效的代码。一天在路上,一位同事决定多个流程应该处理任务请求,然后事情就会中断。 (代码中的注释中的大胖警告只能做很多。)
在一天结束时,应该在缓存中共享此类状态,例如Redis,或者用作缓存的数据库,这将适用于您问题中的代码。
然而,在你写的评论中写道:
让我们看看我想用任务发送一些东西。我希望共享一个全局连接,而不是每次都在任务中连接。
将连接存储在缓存中将不起作用。我强烈建议让Celery开始使用自己的连接而不是尝试在进程之间共享它的每个进程。 不需要为每个新任务请求重新打开连接。每个进程打开一次,然后此进程提供的每个任务请求都会重用该连接。
在许多情况下,尝试在进程之间共享相同的连接(例如,通过fork
共享虚拟内存)将无法正常工作。连接通常带有状态(例如,数据库连接是否处于自动提交模式)。如果代码的两个部分期望连接处于不同的状态,则代码将以不一致的方式运行。
答案 1 :(得分:-2)
任务将异步运行,因此每次启动新任务时,a_num都将设置为0.它们作为单独的实例运行。
如果你想使用值,我建议使用某种值存储或数据库。