标签: memory apache-spark
有谁能告诉我如何确定运行Spark作业时缓存的最大内存量?我需要这个来显示我的算法对各种输入大小的性能(内存利用率)。
提前致谢
答案 0 :(得分:0)
Spark通过REST API为运行和已完成的作业公开了一些方法
以下是2个可以帮助您的API: -
请参阅Spark Doc了解所有公开的REST端点 - http://spark.apache.org/docs/latest/monitoring.html