标签: apache-spark pyspark master-slave
我想在火花中为群集的不同工作者分配不同的记忆。 指定conf时,我们可以写 .set(" spark.executor.memory"," 2g"),这将为所有相应的工作人员分配2 GB。但是如何为不同的工人分配不同的记忆。
例如,我想给一个工人1克,给剩下的工人2克。这可能吗?如果是,怎么样?
答案 0 :(得分:0)
可能与this