Spark Local与Cluster

时间:2018-09-12 10:54:30

标签: multithreading scala apache-spark pyspark

Spark集群等效于独立的local [N]。我的意思是,我们设置为local的参数的值为N,在集群模式下哪个参数采用它?

2 个答案:

答案 0 :(得分:0)

local[N]-N中,是节点在任何时间点可以使用的最大内核数。

在群集模式下,您可以设置--executor-cores N。 这意味着每个执行者可以在一个执行者中同时运行最多N个任务。

答案 1 :(得分:0)

集群模式下,一个执行程序将在一个工作程序节点上运行,这意味着一个执行程序将占用该工作程序节点上的所有核心。这可能会导致资源利用不足。请记住,驱动程序也将占用一个工作节点。