我已经在配置单元中创建了外部表,并且能够从配置单元外壳查看表和记录。但是,当我试图通过提及路径从spark-shell指向同一数据库时,我仅在spark中获得默认数据库,而无法看到我创建的数据库和表。
我也通过以下命令检查了路径
spark2.conf.get("spark.sql.warehouse.dir")
,它的位置与我指定的位置相同。
我也没有权限问题。
答案 0 :(得分:-1)
1。检查spark conf目录中的hive-site.xml
是否正确;
2。SparkSession.enableHiveSupport()
使您的sparkSession支持更加丰富。