我在Windows 10上运行配置单元2.1.1,hadoop 2.3.0

时间:2018-03-09 11:32:26

标签: hadoop apache-spark hive

当我尝试使用聚合函数编写HiveQL查询或加入此Warnning时出现问题: 警告:Hive-on-MR在Hive 2中已弃用,可能在将来的版本中不可用。考虑使用不同的执行引擎(即spark,tez)或使用Hive 1.X版本。

--->所以我想在hive上运行Spark作为引擎而不是MapReduce,我在Windows 10上运行hive 2.1.1,hadoop 2.3.0。 是解决方案还是有另一种解决方案?

0 个答案:

没有答案