我正在阅读关于Spark& amp;资源管理,即我的纱线。
我认为我理解了基本概念以及Yarn如何将Spark Master / Workers封装在容器中。
还是提供资源参数,例如--driver-memory
,--executor-memory
或--number-executors
还有什么意义吗?不应该是Yarn-application-master(spark-master)找出需求并相应地请求新资源?
或者通过提供这些参数干扰资源协商过程是明智的吗?
答案 0 :(得分:1)
Spark需要协商来自YARN的资源。提供资源参数告诉Spark要从YARN请求多少资源。
对于YARN上的遗嘱执行人:
--num-executors
标志按预期设置执行程序的数量。关于YARN的内存管理:
--executor-memory
设置每个执行程序使用的内存。 --executor-cores
告诉Spark要从YARN索取多少个核心。 --driver-memory
设置驱动程序进程的内存量。 一些常见的Spark-on-YARN说明:
--queue
选项。