已执行:
设置spark.home = / location / to / sparkHome;
设置hive.execution.engine = spark;
设置spark.master = Spark-Master-URL
然而,在运行./hive
时,我收到上述错误: -
找不到hadoop安装:$ HADOOP_HOME或$ HADOOP_PREFIX必须 设置或hadoop必须在路径
我没有安装Hadoop,并希望在独立运行的spark上运行配置单元。 我是否必须设置HADOOP来运行hive over spark?
答案 0 :(得分:0)
如果没有hadoop,恕我直言的蜂巢就无法运行。可能有VM已经预先安装了所有东西。 Hive将运行在Hadoop之上。首先,您需要安装Hadoop然后才能尝试配置。
请参阅此https://stackoverflow.com/a/21339399/5756149。
如果我错了,任何人都会纠正我