在运行spark时最大限度地使用Yarn的Vcores

时间:2018-01-08 22:02:05

标签: hadoop apache-spark yarn

我有一个虚拟化集群,其中包含4个节点的Hadoop 2.9。 每个节点有16个cpu,内存为126 gb。

更多的是我尝试将yarn.scheduler.minimum-allocation-vcores设置为不同于1的东西,当我运行spark-submit声明纱线作为主要时,它只为每个容器使用1个vcore。

有没有办法覆盖它?

谢谢!

1 个答案:

答案 0 :(得分:0)

使用spark.executor.cores。来自docs

  

每个执行程序使用的核心数。在独立和Mesos粗粒度模式下,设置此参数允许应用程序在同一个worker上运行多个执行程序,前提是该worker上有足够的内核。否则,每个应用程序只会运行一个执行程序。

默认情况下为:

  在YARN模式下

1