如何检查Spark使用的核心数量?

时间:2014-09-10 18:11:49

标签: apache-spark

我将spark.cores.max设置为24 [3个工作节点],但是如果我进入我的工作节点并且看到只有一个进程[command = Java]正在运行,那就会消耗内存和CPU。我怀疑它没有使用所有8个核心(在m2.4x large上)。

如何知道号码?

1 个答案:

答案 0 :(得分:3)

您可以在Spark Web UI下查看群集中每个工作程序占用的核心数: Spark Web UI