并行运行多个系统命令

时间:2011-02-14 12:59:11

标签: python

我编写了一个简单的脚本,它对一系列文件执行系统命令。 为了加快速度,我想并行运行它们,但不是一次全部运行 - 我需要控制同时运行的命令的最大数量。 最简单的方法是什么?

7 个答案:

答案 0 :(得分:25)

如果你正在调用子进程,我认为不需要使用线程池。使用subprocess模块的基本实现是

import subprocess
import os
import time

files = <list of file names>
command = "/bin/touch"
processes = set()
max_processes = 5

for name in files:
    processes.add(subprocess.Popen([command, name]))
    if len(processes) >= max_processes:
        os.wait()
        processes.difference_update([
            p for p in processes if p.poll() is not None])

在Windows上,os.wait()不可用(也没有任何其他等待任何子进程终止的方法)。您可以通过以特定间隔进行轮询来解决此问题:

for name in files:
    processes.add(subprocess.Popen([command, name]))
    while len(processes) >= max_processes:
        time.sleep(.1)
        processes.difference_update([
            p for p in processes if p.poll() is not None])

睡眠时间取决于子进程的预期执行时间。

答案 1 :(得分:14)

Sven Marnach的回答几乎是正确的,但是有一个问题。如果最后一个max_processes进程结束,主程序将尝试启动另一个进程,for循环将结束。这将关闭主进程,进而可以关闭子进程。对我来说,这种行为发生在屏幕命令中。

Linux中的代码将是这样的(并且只适用于python2.7):

import subprocess
import os
import time

files = <list of file names>
command = "/bin/touch"
processes = set()
max_processes = 5

for name in files:
    processes.add(subprocess.Popen([command, name]))
    if len(processes) >= max_processes:
        os.wait()
        processes.difference_update(
            [p for p in processes if p.poll() is not None])
#Check if all the child processes were closed
for p in processes:
    if p.poll() is None:
        p.wait()

答案 2 :(得分:4)

您需要将Semaphore对象与threads合并。信号量是一个对象,它允许您限制在给定代码段中运行的线程数。在这种情况下,我们将使用信号量来限制可以运行os.system调用的线程数。

首先我们导入我们需要的模块:

#!/usr/bin/python

import threading
import os

接下来,我们创建一个Semaphore对象。这里的第四个是可以一次获取信号量的线程数。这限制了一次可以运行的子进程数。

semaphore = threading.Semaphore(4)

这个函数只是在对信号量的调用中包装对子进程的调用。

def run_command(cmd):
    semaphore.acquire()
    try:
        os.system(cmd)
    finally:
        semaphore.release()

如果您使用的是Python 2.6+,这可以变得更简单,因为您可以使用'with'语句来执行获取和释放调用。

def run_command(cmd):
    with semaphore:
        os.system(cmd)

最后,为了表明这是按预期工作的,我们将八次调用“sleep 10”命令。

for i in range(8):
    threading.Thread(target=run_command, args=("sleep 10", )).start()

使用'time'程序运行脚本显示只需要20秒,因为两个四个睡眠并行运行。

aw@aw-laptop:~/personal/stackoverflow$ time python 4992400.py 

real    0m20.032s                                                                                                                                                                   
user    0m0.020s                                                                                                                                                                    
sys     0m0.008s 

答案 3 :(得分:4)

我将Sven和Thuener的解决方案合并为等待尾随进程的解决方案,并且如果其中一个进程崩溃也会停止:

def removeFinishedProcesses(processes):
    """ given a list of (commandString, process), 
        remove those that have completed and return the result 
    """
    newProcs = []
    for pollCmd, pollProc in processes:
        retCode = pollProc.poll()
        if retCode==None:
            # still running
            newProcs.append((pollCmd, pollProc))
        elif retCode!=0:
            # failed
            raise Exception("Command %s failed" % pollCmd)
        else:
            logging.info("Command %s completed successfully" % pollCmd)
    return newProcs

def runCommands(commands, maxCpu):
            processes = []
            for command in commands:
                logging.info("Starting process %s" % command)
                proc =  subprocess.Popen(shlex.split(command))
                procTuple = (command, proc)
                processes.append(procTuple)
                while len(processes) >= maxCpu:
                    time.sleep(.2)
                    processes = removeFinishedProcesses(processes)

            # wait for all processes
            while len(processes)>0:
                time.sleep(0.5)
                processes = removeFinishedProcesses(processes)
            logging.info("All processes completed")

答案 4 :(得分:2)

你要的是一个线程池。可以使用固定数量的线程来执行任务。当没有运行任务时,它会等待任务队列以获取要执行的新代码。

有这个thread pool module,但有一条评论说它还没有被认为是完整的。可能还有其他包,但这是我找到的第一个包。

答案 5 :(得分:2)

如果正在运行的系统命令可以使用子进程模块创建进程实例,请根据需要调用它们。不应该有任何线程(它的unpythonic)和多进程需要这个任务有点过分。

答案 6 :(得分:2)

这个答案与此处提供的其他答案非常相似,但它使用的是列表而不是集合。 由于某些原因,在使用这些答案时,我收到了关于集合更改大小的运行时错误。

from subprocess import PIPE
import subprocess
import time


def submit_job_max_len(job_list, max_processes):
  sleep_time = 0.1
  processes = list()
  for command in job_list:
    print 'running {n} processes. Submitting {proc}.'.format(n=len(processes),
        proc=str(command))
    processes.append(subprocess.Popen(command, shell=False, stdout=None,
      stdin=PIPE))
    while len(processes) >= max_processes:
      time.sleep(sleep_time)
      processes = [proc for proc in processes if proc.poll() is None]
  while len(processes) > 0:
    time.sleep(sleep_time)
    processes = [proc for proc in processes if proc.poll() is None]


cmd = '/bin/bash run_what.sh {n}'
job_list = ((cmd.format(n=i)).split() for i in range(100))
submit_job_max_len(job_list, max_processes=50)