对使用Celery感兴趣的相对较新的程序员,这是正确的方法

时间:2011-11-22 16:56:53

标签: python mysql celery

基本上我有一个庞大的交易数据库,我正在编写一个脚本,它将获取一些个人信息,并将一个人与他们过去的所有交易相匹配。

因此,我为脚本提供了一个名称,并返回它已确定属于该客户的所有交易。

问题在于我必须为近30,000人做这件事,而且数据库有超过600万的交易记录。

在一台计算机上运行这显然需要很长时间,我愿意承认代码可以优化,但我没有时间,而是我想把工作分成几台计算机。输入芹菜:

我对celery的理解是,我将有一台老板计算机向工作计算机发送名称,该计算机运行该脚本并将客户ID放入其匹配的每个事务的列中。

多个工作计算机在搜索和写入同一个数据库时会出现问题吗?

另外,我错过了什么和/或这是完全错误的方法吗?

感谢您的帮助。

1 个答案:

答案 0 :(得分:2)

不,多个工作计算机搜索和写入同一数据库不会有任何问题,因为MySQL旨在能够处理这个问题。你的方法很好。