无法查看与执行者的spark相关的指标

时间:2017-08-04 06:49:16

标签: apache-spark jvm jmx metrics jmxtrans

metric.properties中进行更改并在命令行中传递相关参数,即

  

&#34; -Dcom.sun.management.jmxremote =真   -Dcom.sun.management.jmxremote.authenticate = false -Dcom.sun.management.jmxremote.ssl = false -Djava.net.preferIPv4Stack = true -Dcom.sun.management.jmxremote.port = 0 org.apache.spark。 deploy.SparkSubmit --conf   spark.metrics.conf =。/ metrics.properties --conf   spark.driver.extraJavaOptions = -Dcom.sun.management.jmxremote =真   -Dcom.sun.management.jmxremote.authenticate = false -Dcom.sun.management.jmxremote.ssl = false -Djava.net.preferIPv4Stack = true -Dcom.sun.management.jmxremote.port = 0`&#34; < / p>

当我通过JConsole连接时,我只能看到执行程序与JVM和Kafka(在我的案例中为Kafka的生产者中的spark)相关的指标。我无法看到与执行者的spark相关的指标。有什么我想念的吗?

注意:通过JConsole连接时,我可以看到&#39;驱动程序的JVM,Kafka和spark相关指标。

0 个答案:

没有答案