我们有一个Apache Ranger 1.0.0的工作安装。我们在hive表上进行了hive服务设置和定义策略以限制访问。此配置单元服务使用带端口10000(默认端口)的jbdc连接字符串。它工作正常。
我们尝试为spark sql设置游侠。使用链接
https://www.mail-archive.com/user@ranger.incubator.apache.org/msg00799.html
但是当我试图点击"测试连接" Ranger UI中的按钮,它会让我误以为错误。
当我点击"显示更多"按钮,它会出现此错误
org.apache.ranger.plugin.client.HadoopException: Unable to connect to Hive Thrift Server instance..
Unable to connect to Hive Thrift Server instance..
Could not open client transport with JDBC Uri: jdbc:hive2://hostnameremoved:10015/default;ssl=true;sslTrustStore=/home/ec2-user/sslfile.jks;trustStorePassword=abcd: Could not establish connection to jdbc:hive2://hostnameremoved:10015/default;ssl=true;sslTrustStore=/home/ec2-user/sslfile.jks;trustStorePassword=abcd: Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, configuration:{set:hiveconf:hive.server2.thrift.resultset.default.fetch.size=1000, use:database=default}).
Could not establish connection to jdbc:hive2://hostnameremoved:10015/default;ssl=true;sslTrustStore=/home/ec2-user/sslfile.jks;trustStorePassword=abcd: Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, configuration:{set:hiveconf:hive.server2.thrift.resultset.default.fetch.size=1000, use:database=default}).
Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, configuration:{set:hiveconf:hive.server2.thrift.resultset.default.fetch.size=1000, use:database=default}).
我们使用的是Hive版本 - apache-hive-2.3.2.5。
但是,当通过spark_home / bin / beeline或通过我们在游侠服务中使用的具有相同jdbc连接字符串的任何sql客户端连接时,Spark sql工作正常。
任何指针都会非常有用。