我一直在使用它作为参考,但无法完全满足我的需求:Calling an external command in Python
我也在读这个:http://www.python.org/dev/peps/pep-3145/
对于我们的项目,在部署应用程序之前,我们需要更新5个svn签出。在我的开发环境中,快速部署对于生产力而言比生产部署更重要,我一直在努力加快这一过程。
我有一个bash脚本,它一直运行得很好但有一些限制。我使用以下bash命令启动多个'svn updates':
(svn update /repo1) & (svn update /repo2) & (svn update /repo3) &
这些都是并行运行的,效果非常好。我还在构建脚本的其余部分中使用此模式来触发每个ant构建,然后将战争移动到Tomcat。
但是,如果其中一个更新或构建失败,我无法控制停止部署。
我正在用Python重写我的bash脚本,这样我就可以更好地控制分支和部署过程。
我正在使用subprocess.call()来触发'svn update / repo'命令,但每个命令都按顺序执行。我试试'(svn update / repo)&'所有这些都是关闭,但结果代码立即返回。因此,我无法确定特定命令是否在异步模式下失败。
import subprocess
subprocess.call( 'svn update /repo1', shell=True )
subprocess.call( 'svn update /repo2', shell=True )
subprocess.call( 'svn update /repo3', shell=True )
我很想找到一种方法让Python启动每个Unix命令,并且如果任何调用在整个脚本停止的任何时候失败。
答案 0 :(得分:18)
请勿使用shell=True
。它将不必要地调用shell来调用你的svn
程序,这将为你提供shell的返回代码而不是svn。
repos = ['/repo1', '/repo2', '/repo3']
# launch 3 async calls:
procs = [subprocess.Popen(['svn', 'update', repo]) for repo in repos]
# wait.
for proc in procs:
proc.wait()
# check for results:
if any(proc.returncode != 0 for proc in procs):
print 'Something failed'