到HDP 2.6的Hive连接器无法正常工作

时间:2017-10-06 09:15:26

标签: knime

我正在使用KNIME 3.4.1并尝试使用此KNIME blog post将其连接到HDP 2.6.1。

kerberos门票存在

E:\Omkar\Development\Software\Analysis\KNIME>klist

Credentials cache: C:\Users\ojoqcu\krb5cc_ojoqcu

Default principal: ojoqcu@GLOBAL.SCD.COM, 1 entry found.

[1]  Service Principal:  krbtgt/GLOBAL.SCD.COM@GLOBAL.SCD.COM
     Valid starting:     Oct 06,  2017 10:49:39
     Expires:            Oct 06,  2017 20:49:39

E:\Omkar\Development\Software\Analysis\KNIME>knime.exe

E:\Omkar\Development\Software\Analysis\KNIME>

krb5.conf文件出现在KNIME jre

[libdefaults]
  renew_lifetime = 7d
  forwardable = true
  default_realm = GLOBAL.SCD.COM
  ticket_lifetime = 10h
  dns_lookup_realm = false
  dns_lookup_kdc = true
  default_ccache_name = /tmp/krb5cc_%{uid}
  allow_weak_crypto = yes

[logging]
  default = FILE:/var/log/krb5kdc.log
  admin_server = FILE:/var/log/kadmind.log
  kdc = FILE:/var/log/krb5kdc.log

[realms]
  GLOBAL.SCD.COM = {
    default_domain = sss.se.com
  }

  SE = {
    default_domain = sss.se.com
  }

我已经添加了Hortonworks Hive JDBC jar,但是,驱动程序并没有显示在配置中。 jdbc_jar_path

hive-connector_config

附带的屏幕截图显示了配置。 Hive连接器,执行时,我收到以下错误:

ERROR Hive Connector       0:1        Exception creating Kerberos based jdbc connection. Error: null
ERROR Hive Connector       0:1        Execute failed: Could not create connection to database: No valid credentials provided (Mechanism level: Failed to find any Kerberos tgt)

1 个答案:

答案 0 :(得分:0)

KNIME论坛上的

This post可能有所帮助 - 简而言之,您似乎需要使用“添加目录”。而不是仅添加驱动程序jar文件来添加驱动程序和伴随库。您提到的博客文章中的这一段也支持这一点:

  

对于Hive,这将为您提供一个名为hive_jdbc_zip的文件。在这个ZIP文件中是另一个ZIP文件:Cloudera_HiveJDBC41_.zip。它包含一个包含驱动程序文件的文件夹。在文件>下的KNIME中添加此文件夹;偏好> KNIME>数据库(通过目录)。在此之后,您需要重新启动KNIME Analytics Platform。