我编写了一个简单的脚本,它对一系列文件执行系统命令。 为了加快速度,我想并行运行它们,但不是一次全部运行 - 我需要控制同时运行的命令的最大数量。 最简单的方法是什么?
答案 0 :(得分:25)
如果你正在调用子进程,我认为不需要使用线程池。使用subprocess
模块的基本实现是
import subprocess
import os
import time
files = <list of file names>
command = "/bin/touch"
processes = set()
max_processes = 5
for name in files:
processes.add(subprocess.Popen([command, name]))
if len(processes) >= max_processes:
os.wait()
processes.difference_update([
p for p in processes if p.poll() is not None])
在Windows上,os.wait()
不可用(也没有任何其他等待任何子进程终止的方法)。您可以通过以特定间隔进行轮询来解决此问题:
for name in files:
processes.add(subprocess.Popen([command, name]))
while len(processes) >= max_processes:
time.sleep(.1)
processes.difference_update([
p for p in processes if p.poll() is not None])
睡眠时间取决于子进程的预期执行时间。
答案 1 :(得分:14)
Sven Marnach的回答几乎是正确的,但是有一个问题。如果最后一个max_processes进程结束,主程序将尝试启动另一个进程,for循环将结束。这将关闭主进程,进而可以关闭子进程。对我来说,这种行为发生在屏幕命令中。
Linux中的代码将是这样的(并且只适用于python2.7):
import subprocess
import os
import time
files = <list of file names>
command = "/bin/touch"
processes = set()
max_processes = 5
for name in files:
processes.add(subprocess.Popen([command, name]))
if len(processes) >= max_processes:
os.wait()
processes.difference_update(
[p for p in processes if p.poll() is not None])
#Check if all the child processes were closed
for p in processes:
if p.poll() is None:
p.wait()
答案 2 :(得分:4)
您需要将Semaphore对象与threads合并。信号量是一个对象,它允许您限制在给定代码段中运行的线程数。在这种情况下,我们将使用信号量来限制可以运行os.system调用的线程数。
首先我们导入我们需要的模块:
#!/usr/bin/python
import threading
import os
接下来,我们创建一个Semaphore对象。这里的第四个是可以一次获取信号量的线程数。这限制了一次可以运行的子进程数。
semaphore = threading.Semaphore(4)
这个函数只是在对信号量的调用中包装对子进程的调用。
def run_command(cmd):
semaphore.acquire()
try:
os.system(cmd)
finally:
semaphore.release()
如果您使用的是Python 2.6+,这可以变得更简单,因为您可以使用'with'语句来执行获取和释放调用。
def run_command(cmd):
with semaphore:
os.system(cmd)
最后,为了表明这是按预期工作的,我们将八次调用“sleep 10”命令。
for i in range(8):
threading.Thread(target=run_command, args=("sleep 10", )).start()
使用'time'程序运行脚本显示只需要20秒,因为两个四个睡眠并行运行。
aw@aw-laptop:~/personal/stackoverflow$ time python 4992400.py
real 0m20.032s
user 0m0.020s
sys 0m0.008s
答案 3 :(得分:4)
我将Sven和Thuener的解决方案合并为等待尾随进程的解决方案,并且如果其中一个进程崩溃也会停止:
def removeFinishedProcesses(processes):
""" given a list of (commandString, process),
remove those that have completed and return the result
"""
newProcs = []
for pollCmd, pollProc in processes:
retCode = pollProc.poll()
if retCode==None:
# still running
newProcs.append((pollCmd, pollProc))
elif retCode!=0:
# failed
raise Exception("Command %s failed" % pollCmd)
else:
logging.info("Command %s completed successfully" % pollCmd)
return newProcs
def runCommands(commands, maxCpu):
processes = []
for command in commands:
logging.info("Starting process %s" % command)
proc = subprocess.Popen(shlex.split(command))
procTuple = (command, proc)
processes.append(procTuple)
while len(processes) >= maxCpu:
time.sleep(.2)
processes = removeFinishedProcesses(processes)
# wait for all processes
while len(processes)>0:
time.sleep(0.5)
processes = removeFinishedProcesses(processes)
logging.info("All processes completed")
答案 4 :(得分:2)
你要的是一个线程池。可以使用固定数量的线程来执行任务。当没有运行任务时,它会等待任务队列以获取要执行的新代码。
有这个thread pool module,但有一条评论说它还没有被认为是完整的。可能还有其他包,但这是我找到的第一个包。
答案 5 :(得分:2)
如果正在运行的系统命令可以使用子进程模块创建进程实例,请根据需要调用它们。不应该有任何线程(它的unpythonic)和多进程需要这个任务有点过分。
答案 6 :(得分:2)
这个答案与此处提供的其他答案非常相似,但它使用的是列表而不是集合。 由于某些原因,在使用这些答案时,我收到了关于集合更改大小的运行时错误。
from subprocess import PIPE
import subprocess
import time
def submit_job_max_len(job_list, max_processes):
sleep_time = 0.1
processes = list()
for command in job_list:
print 'running {n} processes. Submitting {proc}.'.format(n=len(processes),
proc=str(command))
processes.append(subprocess.Popen(command, shell=False, stdout=None,
stdin=PIPE))
while len(processes) >= max_processes:
time.sleep(sleep_time)
processes = [proc for proc in processes if proc.poll() is None]
while len(processes) > 0:
time.sleep(sleep_time)
processes = [proc for proc in processes if proc.poll() is None]
cmd = '/bin/bash run_what.sh {n}'
job_list = ((cmd.format(n=i)).split() for i in range(100))
submit_job_max_len(job_list, max_processes=50)