我有一个Cloudera 5.10集群。 对于分析,我使用参数运行spark-submit:
--conf "spark.driver.extraJavaOptions= -agentpath:/root/yjp-2017.02/bin/linux-x86-64/libyjpagent.so=sampling"
--conf "spark.executor.extraJavaOptions= -agentpath:/root/yjp-2017.02/bin/linux-x86-64/libyjpagent.so=sampling"
它只适用于司机。当我为执行者使用此选项时,我获得了异常
Stack trace: ExitCodeException exitCode=1:
at org.apache.hadoop.util.Shell.runCommand(Shell.java:601)
at org.apache.hadoop.util.Shell.run(Shell.java:504)
at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:786)
at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:213)
at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:748)
我无法找到任何有用的日志,而且每个节点都有相同的例外情况。 如果我正在使用本手册enter link description here
,也是如此如果我只留下驱动程序的配置,一切正常,我可以使用YourKit连接到驱动程序 可能是什么问题?
答案 0 :(得分:1)
可能是执行程序启动32位JVM?那么应该指定32位YourKit代理的路径吗?
答案 1 :(得分:0)
我遇到了同样的问题。您必须在群集中的所有节点上安装YourKit。