我有一个独立的Spark集群,正在其中启动多个Spark作业。我为每个驱动程序分配了1个内核。
这是我在开始工作时正在使用的其他配置
spark.cores.max: 15
spark.driver.cores: 1
spark.driver.memory: 2g
spark.driver.supervise: "true"
spark.eventLog.dir: file:///var/spark-ebs/spark-events
spark.eventLog.enabled: "true"
spark.executor.memory: 2g
spark.jars: /path/to/jar
spark.master: spark://10.68.50.180:7077
spark.submit.deployMode: cluster
现在,当提交的作业数大于可用核心数时,则每个作业最终占用1个驱动程序核,并且没有可用的执行者来运行应用程序的核。
是否可以使用任何配置,以便仅在有执行程序核心可用时才使作业排队
我确实尝试添加了这些配置,但是也没有用
spark.scheduler.maxRegisteredResourcesWaitingTime: 3600s
spark.scheduler.minRegisteredResourcesRatio: 0.5
我还能做什么?