标签: apache-spark hive apache-spark-sql spark-dataframe
我有一个要求。查询一个Metastore的hive表并将Dataframe的结果写入不同的hive Metastore表。我使用Spark Scala使用Spark SQL。我正在使用Spark 2.1和可存储的API,有什么方法可以使用spark上下文连接到两个不同的Metastore?我面临的挑战是在一个火花工作中,我只能使用一个与一个Hive Metastore URIS相互作用的火花环境。