使用YourKit分析Spark应用程序

时间:2017-06-12 11:34:31

标签: apache-spark profiling cloudera yourkit

我有一个Cloudera 5.10集群。 对于分析,我使用参数运行spark-submit:

--conf "spark.driver.extraJavaOptions= -agentpath:/root/yjp-2017.02/bin/linux-x86-64/libyjpagent.so=sampling"
--conf "spark.executor.extraJavaOptions= -agentpath:/root/yjp-2017.02/bin/linux-x86-64/libyjpagent.so=sampling"

它只适用于司机。当我为执行者使用此选项时,我获得了异常

Stack trace: ExitCodeException exitCode=1:
        at org.apache.hadoop.util.Shell.runCommand(Shell.java:601)
        at org.apache.hadoop.util.Shell.run(Shell.java:504)
        at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:786)
        at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:213)
        at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
        at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
        at java.util.concurrent.FutureTask.run(FutureTask.java:266)
        at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
        at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
        at java.lang.Thread.run(Thread.java:748)

我无法找到任何有用的日志,而且每个节点都有相同的例外情况。 如果我正在使用本手册enter link description here

,也是如此

如果我只留下驱动程序的配置,一切正常,我可以使用YourKit连接到驱动程序 可能是什么问题?

2 个答案:

答案 0 :(得分:1)

可能是执行程序启动32位JVM?那么应该指定32位YourKit代理的路径吗?

答案 1 :(得分:0)

我遇到了同样的问题。您必须在群集中的所有节点上安装YourKit。