可以从内部测量Hadoop / Yarn的内存使用吗?

时间:2017-12-05 22:15:39

标签: hadoop apache-spark yarn

我正在使用Yarn作为资源管理器在AWS EMR上运行一个长期的火花作业。运行一段时间后,一些节点停止响应,看着Ganglia我可以看到我们的内存不足。

enter image description here

一旦发生这种情况,应用程序将被终止并恢复内存。但是,如果我尝试使用:sc.getExecutorStorageStatus()[executor].memUsed()sc.getExecutorStorageStatus()[executor].memRemaining()监视内存,系统会报告只使用了140Mb的25Gb(在崩溃之前)。查看EMR集群本身,hadoopyarn进程似乎消耗了资源。

有没有办法以编程方式确定Yarn在Spark应用程序运行时使用的资源?

0 个答案:

没有答案