我不知道火花中的执行器启动策略。我已经使用spark独立集群管理器运行了spark作业。我的怀疑是关于未启用Spark动态分配时Spark中的执行程序启动策略。 我发现的行为是,在我的应用程序中,一次有10个执行器保持运行状态。我的疑问是当我指定spark.cores.max = 20和spark.executor.cores = 2时。 理想情况下,应该启动10个执行程序,并且应该在spark应用程序生命周期中使这10个执行程序处于活动状态。为什么spark会退出活动的执行程序并启动新的执行程序,它可以使用已经启动的执行程序。