为什么Spark有一个为MapReduce 4.x预先构建的下载选项?

时间:2014-12-11 16:01:20

标签: hadoop mapreduce apache-spark

我刚刚开始使用Hadoop。我看到Spark是一个声称比MapReduce更快的执行引擎,因此我想尝试一下。

根据我的理解,MapReduce也是一个执行引擎。那么为什么Spark可以选择下载为Mapreduce 4.x构建的Spark?我的意思是我不知道2在同一个堆栈中如何组合在一起?

任何帮助将不胜感激!

谢谢!

1 个答案:

答案 0 :(得分:2)

  

为什么Spark可以选择下载为Mapreduce 4.x构建的Spark?

没有。它可以选择下载为MapR 4.x构建的spark。 MapR is company开发Hadoop的分布。它与Hadoop的mapreduce处理框架完全无关。