我刚刚开始使用Hadoop。我看到Spark是一个声称比MapReduce更快的执行引擎,因此我想尝试一下。
根据我的理解,MapReduce也是一个执行引擎。那么为什么Spark可以选择下载为Mapreduce 4.x构建的Spark?我的意思是我不知道2在同一个堆栈中如何组合在一起?
任何帮助将不胜感激!
谢谢!
答案 0 :(得分:2)
为什么Spark可以选择下载为Mapreduce 4.x构建的Spark?
没有。它可以选择下载为MapR 4.x构建的spark。 MapR is company开发Hadoop的分布。它与Hadoop的mapreduce处理框架完全无关。