Spark Thriftserver无法连接到正确的Hive数据库

时间:2016-05-23 17:34:20

标签: hadoop apache-spark hive apache-spark-sql

我正在运行Spark ThriftServer,以便我可以针对存储在Hive表中的数据执行Spark SQL命令。

当我启动beeline以显示我当前的表时:

user@mn~$ beeline
!connect jdbc:hive2://mn:10000
show tables;
+------------+--------------+--+
| tableName  | isTemporary  |
+------------+--------------+--+ 
+------------+--------------+--+

输出显示我的数据库中没有表。

但是,如果我使用(已弃用)CLI hive,我会得到不同的输出:

user@mn:~$ hive
Logging initialized using configuration in jar:file:/opt/cloudera/parcels/CDH-5.4.4-1.cdh5.4.4.p0.4/jars/hive-common-1.1.0-cdh5.4.4.jar!/hive-log4j.properties
WARNING: Hive CLI is deprecated and migration to Beeline is recommended.
hive> show tables;
OK
table_1
table_2
Time taken: 1.683 seconds, Fetched: 6 row(s)

我知道beeline的输出不正确,因为HDFS显示我的Hive商店中有表。

user@mn:~$ hadoop fs -ls /user/hive/warehouse
Found 9 items
drwxrwxrwt   - cloudera hive          0 2015-07-30 13:20 /user/hive/warehouse/table_1
drwxrwxrwt   - cloudera hive          0 2015-08-04 16:28 /user/hive/warehouse/table_2

此外,当我连接到Spark Thriftserver(我使用Tableau查询数据)时,当我尝试查看当前架构中的所有表时,不会显示任何表。

我觉得直布CLI和Spark Thriftserver存在某种配置问题,但我不确定它是什么。我很确定Thriftserver指向本地Hive安装,因为我唯一能够通过Thriftserver显示表,它指向本地存储在机器上的表(而不是存储在HDFS中的表)。我在beeline中创建了这些表,因为我认为没有正确配置beeline,所以表是在本地而不是在HDFS中创建的。我确实已经直接连接到运行SparkSQL的端口,所以我想这就解释了为什么这两个软件都有同样的问题。

我应该设置什么配置才能让Thriftserver与正确的Hive安装一起工作?我注意到hive命令加载了一些配置文件,是否包含答案?

非常感谢任何帮助。

编辑:

这是我的hive-site.xml文件:

<?xml version="1.0" encoding="UTF-8"?>

<!--Autogenerated by Cloudera Manager-->
<configuration>
  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://w7:9083</value>
  </property>
  <property>
    <name>hive.metastore.client.socket.timeout</name>
    <value>300</value>
  </property>
  <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
  </property>
  <property>
    <name>hive.warehouse.subdir.inherit.perms</name>
    <value>true</value>
  </property>
  <property>
    <name>hive.enable.spark.execution.engine</name>
    <value>false</value>
  </property>
  <property>
    <name>hive.conf.restricted.list</name>
    <value>hive.enable.spark.execution.engine</value>
  </property>
  <property>
    <name>mapred.reduce.tasks</name>
    <value>-1</value>
  </property>
  <property>
    <name>hive.exec.reducers.bytes.per.reducer</name>
    <value>67108864</value>
  </property>
  <property>
    <name>hive.exec.copyfile.maxsize</name>
    <value>33554432</value>
  </property>
  <property>
    <name>hive.exec.reducers.max</name>
    <value>1099</value>
  </property>
  <property>
    <name>hive.metastore.execute.setugi</name>
    <value>true</value>
  </property>
  <property>
    <name>hive.support.concurrency</name>
    <value>true</value>
  </property>
  <property>
    <name>hive.zookeeper.quorum</name>
    <value>mn</value>
  </property>
  <property>
    <name>hive.zookeeper.client.port</name>
    <value>2181</value>
  </property>
  <property>
    <name>hbase.zookeeper.quorum</name>
    <value>mn</value>
  </property>
  <property>
    <name>hbase.zookeeper.property.clientPort</name>
    <value>2181</value>
  </property>
  <property>
    <name>hive.zookeeper.namespace</name>
    <value>hive_zookeeper_namespace_hive</value>
  </property>
  <property>
    <name>hive.cluster.delegation.token.store.class</name>
    <value>org.apache.hadoop.hive.thrift.MemoryTokenStore</value>
  </property>
  <property>
    <name>hive.server2.enable.doAs</name>
    <value>true</value>
  </property>
  <property>
    <name>hive.server2.use.SSL</name>
    <value>false</value>
  </property>
</configuration>

2 个答案:

答案 0 :(得分:2)

您需要使用关系数据库作为hive的Metastore,并确保在运行hiveserver2的服务器上的hive-site.xml中设置了数据库conn str。

https://cwiki.apache.org/confluence/display/Hive/AdminManual+MetastoreAdmin可能有所帮助

答案 1 :(得分:1)

您需要在hive-site.xml中设置以下属性;示例使用mariaDb驱动程序和mysql。

  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hostname:3306/hive?createDatabaseIfNotExist=true</value>
    <description>username to use against metastore database</description>
  </property>

  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>org.mariadb.jdbc.Driver</value>
    <description>username to use against metastore database</description>
  </property>

  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>username</value>
    <description>username to use against metastore database</description>
  </property>

  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>password</value>
    <description>password to use against metastore database</description>
  </property>