标签: scala apache-spark pyspark
请求的执行者多于集群中可用的机器的背后的逻辑是什么?
在理想情况下,我们希望每台机器上有1个执行器(= 1 jvm),而每台机器上不少。 如果没有,那为什么呢?
预先感谢
答案 0 :(得分:1)
在理想情况下,我们希望每台机器上有1个执行器(= 1 jvm),而每台机器上不少。
不一定。根据可用内存量和JVM实现,单独的虚拟机可能是一个更好的选择,尤其是: