无法启动beeline客户端

时间:2015-12-26 03:18:00

标签: apache-spark apache-spark-sql thrift beeline

我安装了spark-1.5.1-bin-without-hadoop并尝试使用spark安装目录中的以下命令启动beeline。 ./bin/beeline 我得到"错误:无法找到或加载主类org.apache.hive.beeline.BeeLine"。

2 个答案:

答案 0 :(得分:1)

不确定为什么类路径不起作用。我遇到了同样的问题,最后用lib_managed目录下的jar运行java。请注意,使用了详细选项,因为在某些NoClassDef情况下没有显示错误。

java -cp lib_managed/jars/hive-exec-1.2.1.spark.jar:lib_managed/jars/hive-metastore-1.2.1.spark.jar:lib_managed/jars/httpcore-4.3.1.jar:lib_managed/jars/httpclient-4.3.2.jar:lib_managed/jars/libthrift-0.9.2.jar:lib_managed/jars/hive-beeline-1.2.1.spark.jar:lib_managed/jars/jline-2.12.jar:lib_managed/jars/commons-cli-1.2.jar:lib_managed/jars/super-csv-2.2.0.jar:lib_managed/jars/commons-logging-1.1.3.jar:lib_managed/jars/hive-jdbc-1.2.1.spark.jar:lib_managed/jars/hive-cli-1.2.1.spark.jar:lib_managed/jars/hive-service-1.2.1.spark.jar:assembly/target/scala-2.10/spark-assembly-1.5.3-SNAPSHOT-hadoop2.2.0.jar org.apache.hive.beeline.BeeLine -u jdbc:hive2://<thrift server public address>:10000/default --verbose=true

答案 1 :(得分:0)

我有完全相同的问题。对我来说,设置SPARK_HOME环境变量就可以了!

export SPARK_HOME=/Users/../Downloads/spark-2.1.1-bin-hadoop2.7

这是因为如果你真的打开并看到&#34; bin / beeline&#34;脚本文件,你会找到这一行:

弄清楚是否设置了SPARK_HOME

因此,在将SPARK_HOME设置到正确位置后,beeline开始正常工作。