标签: apache-spark
我的spark驱动程序会抛出OutOfMemory错误。当我检查内存使用情况时,整个交换将保持未使用状态。
如果内存不足,为什么火花不使用swap?是否有一些锁定设置可以故意锁定RAM中的内存?