使用多处理模块结束守护进程

时间:2011-01-25 10:40:35

标签: python sqlalchemy multiprocessing

我在下面提供了多处理的示例用法。这是一个进程池模型。它并不像它可能那么简单,但在结构上与我实际使用的代码相对接近。它也使用sqlalchemy,抱歉。

我的问题是 - 我目前的情况是我有一个运行时间相对较长的Python脚本,它执行了许多函数,每个函数看起来都像下面的代码,因此父进程在所有情况下都是相同的。换句话说,多个池由一个python脚本创建。 (我想,我不必这样做,但另一种方法是使用像os.system和subprocess这样的东西。)问题是这些进程会挂起并保留在内存中。文档说这些守护进程应该一直存在,直到父进程退出,但是如果父进程继续生成另一个池或进程并且不立即退出,那该怎么办呢。

调用terminate()有效,但这似乎不太礼貌。有没有一种好方法可以让流程很好地终止?即自己清理干净然后现在离开,我需要启动下一个游泳池吗?

我也试过在进程上调用join()。根据文档,这意味着等待进程终止。如果他们不打算终止怎么办?实际发生的是该过程挂起。

提前致谢。

问候,Faheem。

import multiprocessing, time

class Worker(multiprocessing.Process):
    """Process executing tasks from a given tasks queue"""
    def __init__(self, queue, num):
        multiprocessing.Process.__init__(self)
        self.num = num
        self.queue = queue
        self.daemon = True

    def run(self):
        import traceback
        while True:
            func, args, kargs = self.queue.get()
            try:
                print "trying %s with args %s"%(func.__name__, args)
                func(*args, **kargs)
            except:
                traceback.print_exc()
            self.queue.task_done()

class ProcessPool:
    """Pool of threads consuming tasks from a queue"""
    def __init__(self, num_threads):
        self.queue = multiprocessing.JoinableQueue()
        self.workerlist = []
        self.num = num_threads
        for i in range(num_threads):
            self.workerlist.append(Worker(self.queue, i))

    def add_task(self, func, *args, **kargs):
        """Add a task to the queue"""
        self.queue.put((func, args, kargs))

    def start(self):
        for w in self.workerlist:
            w.start()

    def wait_completion(self):
        """Wait for completion of all the tasks in the queue"""
        self.queue.join()
        for worker in self.workerlist:
            print worker.__dict__
            #worker.terminate()        <--- terminate used here  
            worker.join()              <--- join used here

start = time.time()

from sqlalchemy import *
from sqlalchemy.orm import *

dbuser = ''
password = ''
dbname = ''
dbstring = "postgres://%s:%s@localhost:5432/%s"%(dbuser, password, dbname)
db = create_engine(dbstring, echo=True)
m = MetaData(db)

def make_foo(i):
    t1 = Table('foo%s'%i, m, Column('a', Integer, primary_key=True))

conn = db.connect()
for i in range(10):
    conn.execute("DROP TABLE IF EXISTS foo%s"%i)
conn.close()

for i in range(10):
    make_foo(i)

m.create_all()

def do(i, dbstring):
    dbstring = "postgres://%s:%s@localhost:5432/%s"%(dbuser, password, dbname)
    db = create_engine(dbstring, echo=True)
    Session = scoped_session(sessionmaker())
    Session.configure(bind=db)
    Session.execute("ALTER TABLE foo%s SET ( autovacuum_enabled = false );"%i)
    Session.execute("ALTER TABLE foo%s SET ( autovacuum_enabled = true );"%i)
    Session.commit()

pool = ProcessPool(5)
for i in range(10):
    pool.add_task(do, i, dbstring)
pool.start()
pool.wait_completion()

2 个答案:

答案 0 :(得分:3)

您知道multiprocessing已经有工作池类,对吗?

标准方法是向线程发送一个退出信号:

queue.put(("QUIT", None, None))

然后检查它:

if func == "QUIT":
    return

答案 1 :(得分:1)

我处理这个问题的方法是:

import multiprocessing

for prc in multiprocessing.active_children():
    prc.terminate()

我更喜欢这个,所以我不必用if子句来污染worker函数。