Kubernetes Spark核心分配问题

时间:2019-11-13 08:54:19

标签: apache-spark kubernetes

Spark分配内核尚未充分利用,就Kubernetes而言,集群中的AgentPool将有大量CPU资源来完成其工作,Spark会受到关注,将有0个可用内核工作。如果有0个可用的内核,Spark将把驱动程序和应用程序发送到等待状态。因此,Spark会认为它没有资源可以做任何工作,而KUbernetes会认为有很多资源可以做工作。该问题的解决方案是什么。

0 个答案:

没有答案