启动配置单元和火花时没有合适的驱动程序发现错误

时间:2016-07-13 11:33:31

标签: hadoop apache-spark hive hadoop2

当我尝试启动配置单元或火花时,我收到此错误。

16/07/13 16:55:12 ERROR Schema: Failed initialising database.
No suitable driver found for jdbc:;derby;databaseName=metastore_db;create=true
org.datanucleus.exceptions.NucleusDataStoreException: No suitable driver found for jdbc:;derby;databaseName=metastore_db;create=true

我无法解决它。任何人都可以帮忙吗?

1 个答案:

答案 0 :(得分:1)

看起来像hive lib路径未在spark-env.sh文件中设置。请按照以下步骤操作

  • hive-site.xmlHIVE_HOME/conf复制到SPARK_HOME/conf文件夹。
  • 将hive lib路径添加到SPARK_HOME/conf/spark-env.sh
  • 中的类路径
  • 重启Spark群集,使一切生效。

为了设置mysql,hive metastore hive-site.xml应该设置这些属性:

    <property>
     <name>javax.jdo.option.ConnectionURL</name>
     <value>jdbc:mysql://MYSQL_HOST:3306/hive_{version}</value>
     <description>JDBC connect string for a JDBC metastore</description>
    </property>
    <property>
     <name>javax.jdo.option.ConnectionDriverName</name>
     <value>com.mysql.jdbc.Driver</value>
     <description>Driver class name for a JDBC metastore/description>
    </property>
    <property>
     <name>javax.jdo.option.ConnectionUserName</name>
     <value>XXXXXXXX</value>
     <description>Username to use against metastore database/description>
    </property> 
    <property>
     <name>javax.jdo.option.ConnectionPassword</name>
     <value>XXXXXXXX</value>
     <description>Password to use against metastore database/description>
    </property>

如果这不能解决错误,请提供有关安装/配置环境的步骤的详细信息