标签: hadoop apache-spark hive
当我尝试使用聚合函数编写HiveQL查询或加入此Warnning时出现问题: 警告:Hive-on-MR在Hive 2中已弃用,可能在将来的版本中不可用。考虑使用不同的执行引擎(即spark,tez)或使用Hive 1.X版本。
--->所以我想在hive上运行Spark作为引擎而不是MapReduce,我在Windows 10上运行hive 2.1.1,hadoop 2.3.0。 是解决方案还是有另一种解决方案?