如何为不同的工人分配不同的记忆

时间:2017-03-21 08:11:45

标签: apache-spark pyspark master-slave

我想在火花中为群集的不同工作者分配不同的记忆。 指定conf时,我们可以写 .set(" spark.executor.memory"," 2g"),这将为所有相应的工作人员分配2 GB。但是如何为不同的工人分配不同的记忆。

例如,我想给一个工人1克,给剩下的工人2克。这可能吗?如果是,怎么样?

1 个答案:

答案 0 :(得分:0)

可能与this

重复
  1. 似乎无法提供不同的内存限制。
  2. 但文档说如果您不提供任何约束,则将使用该计算机的所有内存。因此,如果你有不同的机器,它可以在每台机器上使用不同数量的RAM