我有一个python脚本,用于使用spark-submit工具提交spark作业。我想执行命令并将输出实时写入STDOUT和日志文件。我在ubuntu服务器上使用python 2.7。
这是我目前在SubmitJob.py脚本中的内容
#!/usr/bin/python
# Submit the command
def submitJob(cmd, log_file):
with open(log_file, 'w') as fh:
process = subprocess.Popen(cmd, stdout=subprocess.PIPE, stderr=subprocess.STDOUT)
while True:
output = process.stdout.readline()
if output == '' and process.poll() is not None:
break
if output:
print output.strip()
fh.write(output)
rc = process.poll()
return rc
if __name__ == "__main__":
cmdList = ["dse", "spark-submit", "--spark-master", "spark://127.0.0.1:7077", "--class", "com.spark.myapp", "./myapp.jar"]
log_file = "/tmp/out.log"
exist_status = submitJob(cmdList, log_file)
print "job finished with status ",exist_status
奇怪的是,当我在shell中直接执行相同的命令时,它可以正常工作,并在程序进行时在屏幕上产生输出。
所以看起来我正在使用subprocess.PIPE for stdout和编写文件的方式出错了。
当前推荐的使用子进程模块逐行实时写入stdout和日志文件的方法是什么?我在互联网上看到了许多选项,但不确定哪个是正确的或最新的。
感谢
答案 0 :(得分:3)
找出问题所在。 我试图将stdout n stderr重定向到管道以在屏幕上显示。当stderr存在时,这似乎阻止了stdout。如果我从Popen中删除stderr = stdout参数,它可以正常工作。因此,对于spark-submit,看起来您不需要显式重定向stderr,因为它已经隐式地执行了此操作
答案 1 :(得分:0)
打印Spark日志 可以调用user330612给出的commandList
cmdList = ["spark-submit", "--spark-master", "spark://127.0.0.1:7077", "--class", "com.spark.myapp", "./myapp.jar"]
然后可以使用子进程打印,记得使用communic()来防止死锁https://docs.python.org/2/library/subprocess.html 警告使用stdout = PIPE和/或stderr = PIPE时死锁,子进程会为管道生成足够的输出,以阻止等待OS管道缓冲区接受更多数据。使用communic()来避免这种情况。下面是打印日志的代码。
import subprocess
p = subprocess.Popen(cmdList,stdout=subprocess.PIPE,stdout=subprocess.PIPE,stderr=subprocess.PIPE)
stdout, stderr = p.communicate()
stderr=stderr.splitlines()
stdout=stdout.splitlines()
for line in stderr:
print line #now it can be printed line by line to a file or something else, for the log
for line in stdout:
print line #for the output
有关子流程和打印行的更多信息,请访问: https://pymotw.com/2/subprocess/