我在文档中没有看到任何内容,但是有没有办法使用TBLPROPERTIES
或Hive支持的HiveContext
在Spark中查询Hive DataFrame
表格?
答案 0 :(得分:1)
AFAIK您无法访问Spark在HiveMetastoreClient
内使用的HiveSession
。
但是,您可以实例化另一个 - 希望CLASSPATH可以并且包含Hive JAR 和包含Hadoop / Hive配置文件的目录,并且您没有Kerberos身份验证(或者您从Spark驱动程序的隐式Hadoop UGI中受益,该驱动程序自动处理Kerberos);所以这只是new HiveMetaStoreClient(new HiveConf())
然后.getTable(...).getParameters()
应该在Java Map
中为您提供所需的TBLPROPERTIES。