标签: apache-spark pyspark apache-spark-2.0
我知道在启动spark应用程序时,驱动程序进程会在工作节点上启动执行程序进程。但是它究竟是如何做到的(在低级别的火花源代码中)?
哪些spark类/方法实现了该功能?有人能指点我这些课吗?
答案 0 :(得分:0)
查看这两个类:StandaloneAppClient 和StandaloneSchedulerBackend
我希望它对你有帮助