根据我一直在阅读的内容,您可以在没有Hadoop或HDFS的情况下运行Hive(例如使用Spark或Tez的情况),即在本地模式下将fs.default.name
和hive.metastore.warehouse.dir
设置为当地的道路。但是,当我这样做时,我收到一个错误:
Starting Hive metastore service.
Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must be set or hadoop must be in the path
我的hive-site.xml文件:
<property>
<name>mapred.job.tracker</name>
<value>local</value>
</property>
<property>
<name>hive.metastore.schema.verification/name>
<value>false</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>file:///tmp/hive/warehouse</value>
</property>
<property>
<name>fs.default.name</name>
<value>file:///tmp/hive</value>
</property>
这是否意味着我仍然需要下载所有hadoop二进制文件并将HADOOP_HOME设置为该路径?或者,hive中的本地模式是否允许我在不需要所有内容的情况下运行?
答案 0 :(得分:1)
Hive不需要执行HDFS或YARN,但它仍然需要像Spark这样的Hadoop输入/输出格式