为什么我只有2个Spark执行器?

时间:2017-12-19 18:48:01

标签: apache-spark yarn hortonworks-data-platform

我有4台机器,每台机器有16GB内存和8个内核。我这样运行HDP 2.6.3和Spark 2.2(基于this):

spark-shell   
--driver-memory 2g  
--executor-memory 2g   
--executor-cores 4 
--num-executors 11 
--master yarn  --deploy-mode client 

但我只有2个执行者总共跑。 我有:

yarn.nodemanager.resource.cpu-vcores = 6
yarn.nodemanager.resource.memory-mb = 14.25GB

我试过了

--executor-memory 1g   --executor-cores 7 --num-executors 4

但是这引发了一个未准备就绪的错误。 我试过了:

 --executor-cores 2 --num-executors 11

但仍然只有2位遗嘱执行人。有人能指出我正确的方向吗?

编辑:我也尝试过,没有运气:

<property>
    <name>yarn.scheduler.capacity.resource-calculator</name>
    <value>org.apache.hadoop.yarn.util.resource.DominantResourceCalculator</value>
</property>

EDIT2:它不是那个问题的重复,因为那是针对spark独立而不是纱线,并且它询问为什么有太多执行者,而不是太少。

0 个答案:

没有答案