标签: scala hadoop apache-spark intellij-idea hive
我有一个Hive表来填充hadoop服务器的数据。现在我想从我在本地intellij上运行的scala spark代码连接到现有的HIVE表。
我尝试将hive-site.xml复制到我的本地系统中,并将该文件添加到我的类路径中并尝试访问hive表。但它总是带回错误
org.apache.spark.sql.AnalysisException:找不到表。
是否有任何代码段或配置设置我可以从我的本地scala spark代码中访问现有的HIVE表?