为什么在Spark Worker节点上完成的任务比主节点少得多?

时间:2019-03-14 14:59:58

标签: apache-spark

我有双节点Spark集群: 主机:8GB 8核 工人:8GB 4核 我将执行程序的内存增加到3g,我想平衡主服务器和工作服务器之间的负载,但是主服务器仍然承担大部分负载,而主节点内存达到98%,但没有工作服务器节点

0 个答案:

没有答案