标签: apache-spark pyspark pyspark-sql
假设以集群模式运行的spark作业以集群模式启动3个执行程序,然后如何获取spark集群中每个执行程序进程的进程ID(PID)。 在pyspark有没有这个api。?
编辑: 问题是关于执行程序jvm进程ID(PID)而不是执行程序ID。那么如何使用pyspark API获取执行程序进程ID。?