用于火花应用的多个执行器

时间:2018-02-13 11:35:37

标签: apache-spark

一个工作人员可以在独立和纱线模式下为同一个Spark应用程序拥有多个执行程序吗?如果不是,那么原因是什么(对于独立模式和纱线模式)。

1 个答案:

答案 0 :(得分:1)

是的,您可以指定Spark将使用的资源。例如,您可以使用这些属性进行配置:

--num-executors 3   
--driver-memory 4g   
--executor-memory 2g   
--executor-cores 2   

如果您的节点有足够的资源,集群会将多个执行程序分配给同一节点。

您可以阅读有关Spark资源配置here的更多信息。