我有4台机器,每台机器有16GB内存和8个内核。我这样运行HDP 2.6.3和Spark 2.2(基于this):
spark-shell
--driver-memory 2g
--executor-memory 2g
--executor-cores 4
--num-executors 11
--master yarn --deploy-mode client
但我只有2个执行者总共跑。 我有:
yarn.nodemanager.resource.cpu-vcores = 6
yarn.nodemanager.resource.memory-mb = 14.25GB
我试过了
--executor-memory 1g --executor-cores 7 --num-executors 4
但是这引发了一个未准备就绪的错误。 我试过了:
--executor-cores 2 --num-executors 11
但仍然只有2位遗嘱执行人。有人能指出我正确的方向吗?
编辑:我也尝试过,没有运气:<property>
<name>yarn.scheduler.capacity.resource-calculator</name>
<value>org.apache.hadoop.yarn.util.resource.DominantResourceCalculator</value>
</property>
EDIT2:它不是那个问题的重复,因为那是针对spark独立而不是纱线,并且它询问为什么有太多执行者,而不是太少。