如何使用Scala Eclipse IDE连接到现有的Hive

时间:2016-08-30 05:11:07

标签: eclipse scala hadoop apache-spark hive

我在笔记本电脑中设置了以下内容。

  1. Apache 2.7.1 Hadoop,单节点
  2. Hive 2.1.0在MySQL上运行带有Metastore的本地模式。它不是在thriftserver模式下
  3. Spark 2.0.0
  4. Scala 2.1.1
  5. 我已经将hive-site.xml从hive / conf放到了spark / conf。当我转到spark-shell时,我可以使用sql context在hive中创建表并查询它们。我可以访问配置单元中的所有表。我的问题是,当我使用Eclipse IDE时,我无法连接到现有的配置单元。

    Eclipse可以连接到现有的spark master来提交作业,我可以在UI中看到作业但是当我使用sparkSession连接到hive时,它总是创建自己的Derby数据库。我进行了广泛的搜索,但我无法弄明白。

    1. 应该在thriftserver模式下设置配置单元以便eclipse连接。为什么eclipse没有使用现有的hive安装。
    2. 有没有办法从eclipse连接到我现有的配置单元。
    3. 我不确定还有什么要找。

1 个答案:

答案 0 :(得分:0)

您的hive-site.xml不在路径中。尝试将配置添加到类路径