我在拥有HDP 2.3的5台主机的群集上安装了hue 3.9。我的Ambari版本是2.1.2。
问题是Hue初始设置屏幕显示:
Spark没有正在运行的Livy Spark Server
,该应用程序将无法运行
早些时候出现了几个问题,但我必须解决它们。
在这个帖子Error in running livy spark server in hue和这个网络http://gethue.com/new-notebook-application-for-spark之后,我尝试了几件事,但是当我用root用户启动livy-spark时,我收到以下错误:
[root@m1 bin]# /usr/local/hue/build/env/bin/hue livy_server
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/local/hue/apps/spark/java-lib/livy-assembly.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/hdp/2.3.2.0-2950/hadoop/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
Failed to run spark-submit executable: java.io.IOException: Unable to determing spark-submit version [1]:
如果我执行spark-submit
到/ usr / local / hue / build / env / bin /,似乎没有错误,它会显示命令的选项。 spark-submit --version
命令正确显示spark的版本(1.4.1)。
有人可以帮帮我吗?
谢谢你,问候
答案 0 :(得分:0)
您是否尝试过更新路径以指向/ usr / local / hue / build / env / bin /?如
# export PATH="$PATH:/usr/local/hue/build/env/bin/"
# /usr/local/hue/build/env/bin/hue livy_server