标签: apache-spark kubernetes
Spark分配内核尚未充分利用,就Kubernetes而言,集群中的AgentPool将有大量CPU资源来完成其工作,Spark会受到关注,将有0个可用内核工作。如果有0个可用的内核,Spark将把驱动程序和应用程序发送到等待状态。因此,Spark会认为它没有资源可以做任何工作,而KUbernetes会认为有很多资源可以做工作。该问题的解决方案是什么。