标签: apache-spark memory-management
我在Spark中开发了一个算法,我需要在不同的输入数据大小的整个执行过程中报告算法的内存消耗。具体来说,我需要在每个节点或每个执行程序执行期间执行Spark作业的峰值内存利用率和峰值IO使用率。我的问题是