Apache Ranger无法通过spark sql

时间:2018-06-08 00:39:02

标签: apache-spark hive apache-spark-sql apache-ranger

我们有一个Apache Ranger 1.0.0的工作安装。我们在hive表上进行了hive服务设置和定义策略以限制访问。此配置单元服务使用带端口10000(默认端口)的jbdc连接字符串。它工作正常。

我们尝试为spark sql设置游侠。使用链接

https://www.mail-archive.com/user@ranger.incubator.apache.org/msg00799.html

但是当我试图点击"测试连接" Ranger UI中的按钮,它会让我误以为错误。

Ranger UI connection failed message for spark sql port

当我点击"显示更多"按钮,它会出现此错误

org.apache.ranger.plugin.client.HadoopException: Unable to connect to Hive Thrift Server instance.. 
Unable to connect to Hive Thrift Server instance.. 
Could not open client transport with JDBC Uri: jdbc:hive2://hostnameremoved:10015/default;ssl=true;sslTrustStore=/home/ec2-user/sslfile.jks;trustStorePassword=abcd: Could not establish connection to jdbc:hive2://hostnameremoved:10015/default;ssl=true;sslTrustStore=/home/ec2-user/sslfile.jks;trustStorePassword=abcd: Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, configuration:{set:hiveconf:hive.server2.thrift.resultset.default.fetch.size=1000, use:database=default}). 
Could not establish connection to jdbc:hive2://hostnameremoved:10015/default;ssl=true;sslTrustStore=/home/ec2-user/sslfile.jks;trustStorePassword=abcd: Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, configuration:{set:hiveconf:hive.server2.thrift.resultset.default.fetch.size=1000, use:database=default}). 
Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, configuration:{set:hiveconf:hive.server2.thrift.resultset.default.fetch.size=1000, use:database=default}).

我们使用的是Hive版本 - apache-hive-2.3.2.5。

但是,当通过spark_home / bin / beeline或通过我们在游侠服务中使用的具有相同jdbc连接字符串的任何sql客户端连接时,Spark sql工作正常。

任何指针都会非常有用。

0 个答案:

没有答案