spark 1.6.1 - hive-site.xml - 没有连接到mysql

时间:2017-03-16 10:22:56

标签: apache-spark hive

以下是我们的版本

Spark 1.6.1 Hadoop 2.6.2 Hive 1.1.0

我在$ SPARK_HOME / conf目录中有hive-site.xml。 hive.metastore.uris属性也已正确配置。

<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://host.domain.com:3306/metastore</value>
    <description>metadata is stored in a MySQL server</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>MySQL JDBC driver class</description>
</property>

<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
    <description>user name for connecting to mysql server </description>
</property>

<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>*****</value>
    <description>password for connecting to mysql server </description>
</property>

<property>
    <name>hive.metastore.uris</name>
    <value>thrift://host.domain.com:9083</value>
    <description>IP address (or fully-qualified domain name) and port of the metastore host</description>
</property>

不幸的是,Spark正在创建一个临时德比数据库而不连接到MySQL Metastore

我需要Spark来连接MySQL Metastore,因为它是所有元数据的中央存储。请帮忙

此致

巴拉

1 个答案:

答案 0 :(得分:2)

您可以尝试传递hive-site.xml吗? (--files)在群集模式下运行时使用spark-submit?