一个工作人员可以在独立和纱线模式下为同一个Spark应用程序拥有多个执行程序吗?如果不是,那么原因是什么(对于独立模式和纱线模式)。
答案 0 :(得分:1)
是的,您可以指定Spark将使用的资源。例如,您可以使用这些属性进行配置:
--num-executors 3
--driver-memory 4g
--executor-memory 2g
--executor-cores 2
如果您的节点有足够的资源,集群会将多个执行程序分配给同一节点。
您可以阅读有关Spark资源配置here的更多信息。