无法通过Unix Shell终端中的Spark查看在hive中创建的表

时间:2018-03-22 07:31:46

标签: scala apache-spark hive bigdata

通过shell和Spark(Eclipse上的Scala)在hive中创建的表是否完全相同?

如果是,我在使用它们时会获得不同的表和数据库列表 如何解决?

1 个答案:

答案 0 :(得分:0)

Spark需要配置来检测Hive。

在类路径中添加hive-site.xml

如果没有这些配置,Spark会将hive表本地存储在项目根目录的metastore_db文件夹中。