我正在尝试连接SparkSQL和Hive,以便我可以使用SparkSQL查询hive表。这是我的计划:
SparkSession spark = SparkSession
.builder()
.appName("Java Spark Hive Example")
.master("local[*]")
.config("hive.metastore.uris", "thrift://localhost:9083")
.enableHiveSupport()
.getOrCreate();
try{
spark.sql("select * from health").show();}
catch(Exception AnalysisException){ System.out.println("table not found");}
但是我在运行程序时遇到了一个问题。这是问题所在:
以下是问题:https://justpaste.it/13n4r
我在笔记本电脑上检查了相同的代码,运行正常。但是当我转移到我的Desptop计算机时,我在使用Eclipse Neon运行maven程序时遇到了这个问题
我正在使用Apache Spark 2.1.0和Hive 1.2.0
由于这些版本,这不是问题。我很确定这一点。但我不明白是什么问题以及我可以做些什么来避免它。请帮助我。