如何在pyspark获取spark执行程序进程PID

时间:2018-06-06 13:54:58

标签: apache-spark pyspark pyspark-sql

假设以集群模式运行的spark作业以集群模式启动3个执行程序,然后如何获取spark集群中每个执行程序进程的进程ID(PID)。 在pyspark有没有这个api。?

编辑: 问题是关于执行程序jvm进程ID(PID)而不是执行程序ID。那么如何使用pyspark API获取执行程序进程ID。?

0 个答案:

没有答案