在PySpark驱动程序中创建新的Python进程时(例如,使用JobLib或其他多处理库),这些进程是否共享Spark驱动程序内存,或者它们在该PySpark驱动程序JVM之外分配了内存?
答案 0 :(得分:3)
Python驱动程序内存不在spark.driver.memory
中进行计算(对于worker,则与spark.executor.memory
相同)。 spark.*.memory
设置仅用于堆上Java内存分配。
spark.driver.memoryOverhead
和等效设置涵盖了所有其他形式的内存分配(堆外,本机内存,例如Python等)。