“无法找到hadoop安装:$ HADOOP_HOME ..”在尝试在spark上运行配置单元时出现此错误。

时间:2016-05-10 10:37:09

标签: apache-spark hive

我已遵循此https://cwiki.apache.org/confluence/display/Hive/Hive+on+Spark%3A+Getting+Started#HiveonSpark:GettingStarted-Configurationpropertydetails

已执行:

  

设置spark.home = / location / to / sparkHome;

     

设置hive.execution.engine = spark;

     

设置spark.master = Spark-Master-URL

然而,在运行./hive时,我收到上述错误: -

  

找不到hadoop安装:$ HADOOP_HOME或$ HADOOP_PREFIX必须   设置或hadoop必须在路径

我没有安装Hadoop,并希望在独立运行的spark上运行配置单元。 我是否必须设置HADOOP来运行hive over spark?

1 个答案:

答案 0 :(得分:0)

如果没有hadoop,恕我直言的蜂巢就无法运行。可能有VM已经预先安装了所有东西。 Hive将运行在Hadoop之上。首先,您需要安装Hadoop然后才能尝试配置。

请参阅此https://stackoverflow.com/a/21339399/5756149

如果我错了,任何人都会纠正我