Spark没有显示所有Hive数据库

时间:2018-05-14 14:08:11

标签: apache-spark hadoop hive

如果我列出Hive中的所有数据库,我会得到以下结果(我有2个表默认ans sbm):

enter image description here

但如果我尝试在火花中做同样的事情,我会得到这个

enter image description here

它没有显示数据库SBM。

2 个答案:

答案 0 :(得分:0)

您是否连接到该蜂巢Metastore?您是否指定了Metastore详细信息(即spark-conf目录中的hive-site.xml)?好像你已经连接到当地的merastore。

答案 1 :(得分:0)

我认为您需要将hive-site.xml复制到spark / conf目录。

如果您使用ubuntu并定义了环境变量,请使用下一个命令:

cp $ HIVE_HOME / conf / hive-site.xml $ SPARK_HOME / conf