将蜂房连接到intellij的火花

时间:2018-02-14 14:16:05

标签: apache-spark spark-hive

我正在尝试从安装在本地计算机上的Intellij中的spark程序中连接到远程配置单元。

我将hadoop集群配置文件放在本地机器上,并在Intellij中配置环境变量HADOOP_CONF_DIR运行此spark程序的配置,以便能够检测到这个hadoop集群,但是intelliJ不知何故没有读取这些文件并且火花程序默认为本地hive Metastore实例

无论如何都要将intelliJ配置为在本地读取hadoop配置文件。任何帮助都非常感谢。

2 个答案:

答案 0 :(得分:0)

请配置SPARK_CONF_DIR变量并复制该目录中的hive-site.xml。 Spark将连接指定的配置单元存储,并确保hive-site.xml指向您的集群详细信息。

由于 拉维

答案 1 :(得分:0)

将hadoop配置文件文件夹添加到intellij项目类路径中

项目设置->库-> +-> Java->选择包含所有配置文件的文件夹->