我试图在Spark集群上运行用Java编写的spark作业,以将记录作为数据帧加载到我创建的Hive Table中。
df.write().mode("overwrite").insertInto(dbname.tablename);
尽管表和数据库存在于Hive中,但它抛出以下错误: org.apache.spark.sql.AnalysisException:找不到表或视图:dbname.tablename,数据库dbname不存在。
我还尝试从不同于上述表的现有配置单元表中读取数据,以为创建表时可能存在问题。 我还检查了我的用户是否有权访问配置单元存储数据的hdfs文件夹。 一切看起来都很好,不确定是什么问题。
请提出建议。
谢谢
答案 0 :(得分:-1)
我认为它是在Spark中搜索该表而不是在配置单元中。