Hive 2.3.2本地模式无法找到Hadoop安装

时间:2018-02-27 18:15:08

标签: hadoop hive

根据我一直在阅读的内容,您可以在没有Hadoop或HDFS的情况下运行Hive(例如使用Spark或Tez的情况),即在本地模式下将fs.default.namehive.metastore.warehouse.dir设置为当地的道路。但是,当我这样做时,我收到一个错误:

Starting Hive metastore service.
Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must be set or hadoop must be in the path

我的hive-site.xml文件:

<property>
  <name>mapred.job.tracker</name>
  <value>local</value>
</property>
<property>
  <name>hive.metastore.schema.verification/name>
  <value>false</value>
</property>
<property>
  <name>hive.metastore.warehouse.dir</name>
  <value>file:///tmp/hive/warehouse</value>
</property>
<property>
  <name>fs.default.name</name>
  <value>file:///tmp/hive</value>
</property>

这是否意味着我仍然需要下载所有hadoop二进制文件并将HADOOP_HOME设置为该路径?或者,hive中的本地模式是否允许我在不需要所有内容的情况下运行?

1 个答案:

答案 0 :(得分:1)

Hive不需要执行HDFS或YARN,但它仍然需要像Spark这样的Hadoop输入/输出格式