我刚参加了一个关于Spark的入门课程,并询问演讲者Spark是否可以完全取代MapReduce,并且被告知Spark可以用于替换任何用例的MapReduce,但是有一些特殊的用例,MapReduce实际上更快比Spark。
MapReduce比Spark更快解决的用例有哪些特点?
答案 0 :(得分:2)
请原谅我quoting myself from Quora,但是:
你可以reproduce almost all of MapReduce's behavior in Spark,因为Spark有更简单,更简单的功能,可以用来产生大量的执行。你并不总是想模仿MapReduce。
Spark无法做到的一件事就是你从经典MapReduce如何运作中获得的那种非核心类型,但即将到来。我想,MultipleOutputs
之类的东西也没有非常直接的类比。