我安装了spark-1.5.1-bin-without-hadoop并尝试使用spark安装目录中的以下命令启动beeline。 ./bin/beeline 我得到"错误:无法找到或加载主类org.apache.hive.beeline.BeeLine"。
答案 0 :(得分:1)
不确定为什么类路径不起作用。我遇到了同样的问题,最后用lib_managed目录下的jar运行java。请注意,使用了详细选项,因为在某些NoClassDef情况下没有显示错误。
java -cp lib_managed/jars/hive-exec-1.2.1.spark.jar:lib_managed/jars/hive-metastore-1.2.1.spark.jar:lib_managed/jars/httpcore-4.3.1.jar:lib_managed/jars/httpclient-4.3.2.jar:lib_managed/jars/libthrift-0.9.2.jar:lib_managed/jars/hive-beeline-1.2.1.spark.jar:lib_managed/jars/jline-2.12.jar:lib_managed/jars/commons-cli-1.2.jar:lib_managed/jars/super-csv-2.2.0.jar:lib_managed/jars/commons-logging-1.1.3.jar:lib_managed/jars/hive-jdbc-1.2.1.spark.jar:lib_managed/jars/hive-cli-1.2.1.spark.jar:lib_managed/jars/hive-service-1.2.1.spark.jar:assembly/target/scala-2.10/spark-assembly-1.5.3-SNAPSHOT-hadoop2.2.0.jar org.apache.hive.beeline.BeeLine -u jdbc:hive2://<thrift server public address>:10000/default --verbose=true
答案 1 :(得分:0)
我有完全相同的问题。对我来说,设置SPARK_HOME环境变量就可以了!
export SPARK_HOME=/Users/../Downloads/spark-2.1.1-bin-hadoop2.7
这是因为如果你真的打开并看到&#34; bin / beeline&#34;脚本文件,你会找到这一行:
弄清楚是否设置了SPARK_HOME
因此,在将SPARK_HOME设置到正确位置后,beeline开始正常工作。