驱动程序占用了火花群集的所有核心

时间:2019-03-20 00:23:06

标签: apache-spark apache-spark-standalone

我有一个独立的Spark集群,正在其中启动多个Spark作业。我为每个驱动程序分配了1个内核。

这是我在开始工作时正在使用的其他配置

    spark.cores.max: 15
    spark.driver.cores: 1
    spark.driver.memory: 2g
    spark.driver.supervise: "true"
    spark.eventLog.dir: file:///var/spark-ebs/spark-events
    spark.eventLog.enabled: "true"
    spark.executor.memory: 2g
    spark.jars: /path/to/jar
    spark.master: spark://10.68.50.180:7077
    spark.submit.deployMode: cluster

现在,当提交的作业数大于可用核心数时,则每个作业最终占用1个驱动程序核,并且没有可用的执行者来运行应用程序的核。

是否可以使用任何配置,以便仅在有执行程序核心可用时才使作业排队

我确实尝试添加了这些配置,但是也没有用

spark.scheduler.maxRegisteredResourcesWaitingTime: 3600s
spark.scheduler.minRegisteredResourcesRatio: 0.5

我还能做什么?

0 个答案:

没有答案