当我传递参数--executor-core = 1时,Spark纱线执行程序进程使用的CPU超过1000%

时间:2018-07-19 08:40:58

标签: apache-spark cpu-usage

运行spark程序时,我使用参数--executor-core=1,但是节点服务器收到一些CPU使用率警告,然后使用命令“ top”,发现一个进程的CPU占用率超过1000%! 根据参数--executor-core=1,该进程应该拥有100%或更多的CPU,但是结果是某个进程拥有1000%+的CPU。我想知道那是怎么发生的以及如何解决? CPU usage screenshot

0 个答案:

没有答案